id
stringlengths
2
8
url
stringlengths
31
75
title
stringlengths
1
29
text
stringlengths
209
315k
qid
stringlengths
2
10
rank
float64
83.6
38.2k
161376
https://de.wikipedia.org/wiki/Gloucester
Gloucester
Gloucester ist eine Stadt im Südwesten Englands, nahe der Grenze zu Wales. 2016 betrug die Bevölkerungszahl rund 128.000 Einwohner. Gloucester ist der traditionelle Verwaltungssitz der Grafschaft Gloucestershire. Zusammen mit dem benachbarten Cheltenham ist die Stadt Sitz der University of Gloucestershire. Gloucester selbst liegt am linken, dem östlichen Ufer des Severn, etwa 185 Kilometer in westnordwestlicher Richtung von London. Es wird umgeben von den Cotswolds im Osten, während die Malvern Hills und der Forest of Dean sich im Westen und Nordwesten erheben. Sehenswürdigkeiten Die Kathedrale der Heiligen Dreifaltigkeit von Gloucester in der Nähe des Flusses im Norden der Stadt steht auf Fundamenten einer alten Klosteranlage aus dem Jahre 681, die St. Peter gewidmet war. Hier wurde König Eduard II. von England beigesetzt. Heinrich VIII löste die Abtei auf und im Jahr 1541 wurde diese Kirche zur Kathedrale der neuen Diözese Gloucester erhoben. Zahlreiche Giebel- und Fachwerkhäuser der mittelalterlichen Zeit Gloucesters sind bis heute erhalten. Am Schnittpunkt der vier Hauptstraßen der Stadt steht das Tolsey, das Rathaus der Stadt, das durch einen modernen Bau 1894 ersetzt wurde. Keines der früheren öffentlichen Bauwerke ist mit Ausnahme des New Inn in der Northgate Street (1450) erhalten. Das New Inn wurde für die Pilger zum Schrein Eduards II. durch Abbot Sebroke erbaut. Neben zahlreichen Kirchen bestehen in Gloucester noch mehrere kleinere Kapellen. Vier Kirchen heben sich in ihrer Bedeutung voneinander ab: St. Mary de Lode, mit einem Turm und der Kanzel aus normannischer Zeit, die auf einer römischen Tempelanlage errichtet worden und damit die erste christliche Kirche in Britannien sein soll. St. Mary de Crypt, aus dem 12. Jahrhundert, mit späteren Anbauten und dem sehenswerten Turm. die Kirche St. Michael, die einst mit der alten Abtei von St. Peter verbunden gewesen sein soll und die Kirche St. Nicholas, ursprünglich ein normannisches Bauwerk, deren Turm und Anbauten aus späteren Zeiten stammen. In Nachbarschaft zu St. Mary de Crypt sind noch Überreste der Klöster der Greyfriars und Blackfriars erhalten. Auch Teile der Stadtmauern sind hier zu sehen. Geschichte Die historische Überlieferung einer britischen Siedlung bei Gloucester (Caer Glow, Gleawecastre, Gleucestre) kann nicht durch urkundliche Beweise bestätigt werden. Während der römischen Besatzung war Gloucester identisch mit der Garnison oder Kolonie von Glevum, die während der Regentschaft des Nerva gegründet wurde. Teile der damaligen Wallanlagen können nachgewiesen werden, zahlreiche archäologische Funde wie Scherben und Münzen belegen dies. Inschriften sind dagegen kaum erhalten. Belege für das Überdauern der Siedlung nach Ende der römischen Besatzung finden sich in der Historia Brittonum, wo berichtet wird, dass der Großvater des Vortigern Gloucester regiert haben soll. Mit der Schlacht von Deorham 577 wurde Gloucester eine Besitzung von Wessex. Aufgrund der idealen Flusslage wurde 681 die Abtei von St. Peter durch Æthelred gegründet, die der Stadt zu einer Blüte verhalf; noch vor der Eroberung Englands durch die Normannen, wurde das Borough (ein Verwaltungsgebiet) durch einen Portreeve regiert, der in einem Schloss, das als königliche Residenz genutzt wurde, residierte. Der erste normannische Herrscher, Earl Godwine, wurde fast ein Jahrhundert später durch Robert von Gloucester abgelöst. König Heinrich II. von England verlieh in einer Charta des Jahres 1155 den Bürgern der Stadt die gleichen Rechte wie den Einwohnern Londons und Winchesters. Mit der zweiten Charta Heinrichs II. wurde die freie Passage über den Severn garantiert. Die erste Charta wurde 1194 durch König Richard I. bestätigt. Mit der Charta von König Johann Ohneland aus dem Jahre 1200 wurden die Rechte der Stadt erheblich ausgeweitet. Ein Hauptstandbein der lokalen Wirtschaft im Spätmittelalter war das Textilhandwerk. Zu Zeiten der Deutschen Hanse hegten die Tuchmacher von Gloucester rege Geschäftskontakte mit den deutschen Kaufleuten im Londoner Stalhof; letztere sollen um 1470 in Gloucester 5000 Pfund Kreidt-Schulden gehabt haben. Die Schlacht um Gloucester 1643 war einer der wichtigsten Kämpfe des Englischen Bürgerkrieges, aus denen die Parlamentarischen Truppen siegreich hervorgingen. Bis zum Bau der Severn Bridge 1966 war Gloucester der niedrigste Querungspunkt des Flusses. Dort befindet sich eine Straßenbrücke, die noch von Thomas Telford 1829 errichtet wurde und bemerkenswert für ihren sehr flachen Bogenaufbau ist. Aber aufgrund ihrer Zierlichkeit und ihrer schmalen Breite wird sie nicht mehr für den Verkehr benutzt. Seit 1974 wurde ihr eine moderne Straßenbrücke parallel hinzugefügt. Eine der seltsamsten britischen Traditionen, die seit 200 Jahren ausgeübt wird, deren Ursprung jedoch unbekannt ist, findet am letzten Wochenende im Mai auf Coopers Hill, Gloucester, statt – das jährliche Käserollen. Am 23. Juli 2007 wurde Gloucester von einer Jahrhundertflut heimgesucht, die große Teile der Stadt überflutete. Wirtschaft In Gloucester wird bei Safran Landing Systems das Hauptfahrwerk für das Langstrecken-Großraumflugzeug Airbus A350 XWB gefertigt. Gloucester besitzt einen Hafen, der den Gloucester-und-Sharpness-Kanal mit der Schiffung auf dem Severn verbindet. Damit wird es Schiffen ermöglicht, trotz des Tidenhubs des Flusses die Docks zu erreichen. Bis in die 1980er Jahre hinein verfiel das frühere Hafenviertel mit den Lagerhäusern und Speichern, bis schließlich die Erneuerung des Stadtteils wieder Leben in das Viertel brachte. Inzwischen ist hier auch das National Waterways Museum untergebracht, ein Ankerpunkt der Europäischen Route der Industriekultur (ERIH) sowie zahlreiche hochwertige Appartements, Geschäfte und Bars. Der Flughafen Gloucestershire liegt etwa 6 km nordöstlich der Stadt. Sport Mit Abstand beliebteste Sportart in Gloucester ist Rugby Union. Der Verein Gloucester Rugby ist in der höchsten englischen Liga vertreten und spielt im Kingsholm Stadium. Gloucester war unter anderem einer der Austragungsorte bei der Rugby-Union-Weltmeisterschaft 1991 und der Rugby-Union-Weltmeisterschaft 2015. Partnerstädte in Deutschland, seit 29. Juni 1959 in Frankreich Gouda in den Niederlanden Persönlichkeiten Söhne und Töchter der Stadt Isabella von England (1214–1241), als Gemahlin des Kaisers Friedrich II. von 1235 bis 1241 Kaiserin des Heiligen Römischen Reiches Eleanor von England (um 1215–1275), Countess of Pembroke und Countess of Leicester, Tochter des englischen Königs Johann Ohneland John Taylor (1578–1653), Dichter William Hayes (1708–1777), Organist und Komponist Ebenezer Kinnersley (1711–1778), US-amerikanischer Forscher; Mitentdecker der Elektrizität George Whitefield (1714–1770), Prediger und Mitbegründer des Methodismus Capel Bond (1730–1790), Organist, Dirigent und Komponist Robert Raikes (1735–1811), Zeitungsverleger und Sozialreformer, Begründer der Sonntagsschulen John Stafford Smith (1750–1836), Sänger (Tenor), Komponist und Musikwissenschaftler John Gully (1783–1863), Boxer und Politiker Charles Wheatstone (1802–1875), Physiker George Washborne Morgan (1822–1892), Organist und Komponist Herbert Vaughan (1832–1903), römisch-katholischer Theologe und Kardinal William Ernest Henley (1849–1903), Schriftsteller Thomas Samuel Humpidge (1853–1887), Chemiker Hubert Cecil Booth (1871–1955), Ingenieur Grantley Goulding (1874–1947), Leichtathlet; Teilnehmer der ersten Olympischen Sommerspiele Winifred Cullis (1875–1956), Physiologin und Hochschullehrerin M. Philips Price (1885–1973), Politiker (Labour) Louise Doris Adams (1889–1965), Mathematikerin und Schulinspektorin Cecil C. Goldsmith (1889–1972), Sprachlehrer und Generalsekretär der Internacia Esperanto-Ligo Edith Tolkien (1889–1971), Ehefrau des britischen Schriftstellers J. R. R. Tolkien Ivor Gurney (1890–1937), Komponist und Dichter Marjorie Fielding (1892–1956), Schauspielerin Dorothy Wilding (1893–1976), Fotografin Herbert Sumsion (1899–1995), Organist John Dykes Bower (1905–1981), Organist Berkely Mather (1909–1996), Schriftsteller James Innell Packer (1926–2020), anglikanischer Theologe und evangelikaler Autor Susan Sallis (* 1929), Schriftstellerin John Dixon Hunt (* 1936), Historiker Geoffrey Leech (1936–2014), Philologe und Sprachwissenschaftler R. M. W. Dixon (* 1939), Sprachwissenschaftler Glyn Ford (* 1950), Politiker Janet Royall (* 1955), Politikerin Tina May (1961–2022), Jazz-Sängerin Richard Phelps (* 1961), Pentathlet Fiona Geaves (* 1967), Squashspielerin Lorraine Shaw (* 1968), Hammerwerferin Jean Jacques Smoothie (* 1969), House-Produzent und DJ Simon Pegg (* 1970), Komiker, Schauspieler und Drehbuchautor Alex Stait (* 1979), Squashspieler Dan Harding (* 1983), Fußballspieler Natasha Page (* 1985), Ruderin Vicky Holland (* 1986), Triathletin Robbie Temple (* 1986), Squashspieler William Moseley (* 1987), Filmschauspieler Callum MacLeod (* 1988), Rennfahrer Julianne Courtice (* 1991), Squashspielerin Nathan Sykes (* 1993), Sänger der Band The Wanted Personen, die mit Gloucester verbunden sind Samuel Turner (1759–1802), Diplomat und Offizier der britischen Ostindien-Kompanie Samuel Sebastian Wesley (1810–1876), Kirchenmusiker und Komponist, wirkte von 1865 bis zu seinem Tod 1876 an der Kathedrale von Gloucester Frederick West (1941–1995), Serienmörder Weblinks Gloucester City Council (engl.) Einzelnachweise Ort in Gloucestershire City (England) Borough (South West England) Hochschul- oder Universitätsstadt in England
Q170497
100.048535
507242
https://de.wikipedia.org/wiki/Hinduismus
Hinduismus
Der Hinduismus, auch Sanatana Dharma (, für das ewige Gesetz) genannt, ist mit rund einer Milliarde Anhängern und einem Anteil von etwa 15 % der Weltbevölkerung nach dem Christentum (rund 31 %) und dem Islam (rund 23 %) die drittgrößte Religionsgruppe der Erde bzw. eher ein vielgestaltiger Religionskomplex. Seinen Ursprung hat er in Indien. Anhänger des im Ausland häufig verkürzend als polytheistisch wahrgenommenen und in wissenschaftlichen Kreisen als henotheistisch kategorisierten Hinduismus werden Hindus genannt, wobei dieses Hyperonym in seiner Zusammenfassung mehr eine europäisch-kolonialistische Perspektive wiedergibt, als der historischen Entwicklung bzw. den Entwicklungslinien der differenten Religionen Indiens gerecht zu werden. Im Gegensatz zu anderen Religionen gibt es im Hinduismus keinen Religionsstifter, vielmehr entwickelten sich die religiösen Systeme Indiens über einen Zeitraum von ca. 3500 Jahren. Der Hinduismus vereint in sich mithin grundsätzlich verschiedene Religionen, die sich teilweise mit gemeinsamen Traditionen überlagern und gegenseitig beeinflussen, in heiligen Schriften, Glaubenslehren, der Götterwelt und Ritualen aber Unterschiede aufweisen. Axel Michaels vertritt dabei die These, dass diese verschiedenen Religionen und Gemeinschaften zumeist fünf Kriterien erfüllen: (a) ein räumlicher Bezug zu Südasien, (b) ähnliche Sozial- und Heiratsvorschriften (siehe Kastensystem), (c) dominierende vedisch-brahmanische Werte, (d) die Verehrung bestimmter Gottheiten und (e) ein zueinander identifikatorischer Habitus. Spirituelle Strömungen Die wichtigsten spirituellen Strömungen innerhalb der hinduistischen Religion sind: Brahma, der Erschaffer der Welt, er manifestiert sich als Dreiheit (Trimurti); jede weitere Gottheit ist ein Aspekt des Einen. Vishnuismus, der Erhalter und Bewahrer der Welt Shivaismus, der Vollender und Zerstörer der Welt. Shaktismus, die Quelle des Lebens, die wohlwollende Mutter, sie kann aber auch eine schreckliche böswillige Kraft sein. Die meisten Hindus sehen entweder in Vishnu oder in Shiva den einzigen, allumfassenden und damit verehrungswürdigen Gott (Monolatrie). Die Strömung, die Brahma als den Einen Gott verehrte, ist im rezenten Hinduismus nur noch selten anzutreffen. Eine weitere Strömung ist der Shaktismus. Hier wird insbesondere Shakti, die kosmische Energie, auch als göttliche Mutter vorgestellt. Sie manifestiert sich und wird verehrt in ihren Gestalten als Durga, Kali, Lakshmi, Sarasvati. Verbreitung Weltweit gibt es nach einer Schätzung von 2010 etwa eine Milliarde Hindus, wovon rund 92 % in Indien leben, wo sie mit etwa 80 % der Bevölkerung die größte Religionsgruppe bilden. Das gilt auch für Nepal (81 %), die indonesische Provinz Bali (90 %, Indonesien gesamt 1,8 %) und Mauritius (49 %). Länder mit einem vergleichsweise signifikanten Anteil an Hindus sind außerdem Fidschi (30 %), Guyana (30 %), Bhutan (25 %), Suriname (22 %), Trinidad und Tobago (18 %), Sri Lanka (13 %), Bangladesch (9 %) und Malaysia (7 %). Die rund drei Millionen Hindus in Sri Lanka sind fast ausschließlich Tamilen. In Pakistan kam es nach der Teilung Indiens 1947 zu einem Bevölkerungsaustausch, bei dem fast alle Hindus nach Indien flohen. Der Anteil in Pakistan beträgt noch 1,5 %. Auf dem indischen Subkontinent setzte sich der Hinduismus im 1. Jahrtausend n. Chr. gegenüber dem Buddhismus durch und wurde im 12. Jahrhundert zur vorherrschenden Religion Indiens. In Nepal wurde der Hinduismus seit dem 14. Jahrhundert gefördert und war bis zum Ende der Monarchie 2008 die Religion der Königsfamilie. Außerhalb des indischen Subkontinents verbreitete sich der Hinduismus in mehreren Schüben. Vom 1. bis zum 6. Jahrhundert entfaltete er sich entlang der Handelsstraßen in Südostasien, besonders in Burma, Kambodscha, in Indonesien und auf der malaiischen Halbinsel. In der Zeit der britischen Herrschaft in Indien gelangten zahlreiche Inder als Arbeitskräfte oder Händler in andere Teile des britischen Kolonialreiches. Die hinduistische Gemeinde in Großbritannien geht vor allem auf die indische Einwanderung nach 1945 zurück. In den letzten Jahrzehnten gab es eine verstärkte Einwanderung indischer Gastarbeiter in die arabischen Staaten am Persischen Golf und in die USA. In Katar, Bahrain und den Vereinigten Arabischen Emiraten beträgt der hinduistische Bevölkerungsanteil inzwischen über 10 %. Viele indische Händler, die 1972 aus Uganda vertrieben wurden, ließen sich in Kanada und Großbritannien nieder. Seit 1873 kamen sogenannte Hindustanen als Kontraktarbeiter nach Suriname. Nachdem Suriname 1975 die Unabhängigkeit erlangt hatte, zogen zahlreiche surinamische Hindus aus Furcht vor politischer Diskriminierung in die Niederlande. Auch die Mehrheit der über 60.000 Hindus in Deutschland sind Flüchtlinge, vor allem Tamilen, die dem Bürgerkrieg in Sri Lanka entkommen konnten. Ihr kulturelles und religiöses Zentrum ist der Sri-Kamadchi-Ampal-Tempel in der nordrhein-westfälischen Stadt Hamm, der 2002 eingerichtet wurde. Er ist nach dem im nordindischen Nagara-Stil errichteten Neasden-Tempel in London der zweitgrößte hinduistische Tempel in Europa. Zum Begriff Der Hinduismus ist keine einheitliche Religion. Indologen und Religionswissenschaftler verwenden häufig den Begriff Hindu-Traditionen oder Hindu-Religionen. Der Begriff „Hinduismus“ umfasst einen Komplex religiöser Traditionen und gesellschaftlicher Phänomene, die teilweise sehr unterschiedliche sozioökonomische, historische und geographische Bedingungen haben. Das Wort „Hindu“ stammt aus dem Persischen und bezeichnet im Singular den Fluss Indus (der im Sanskrit wiederum Sindhu heißt). Als geographische Bezeichnung kommt dieses Wort somit schon in den altpersischen Inschriften der Achämeniden vor. Als die Griechen unter Alexander dem Großen 326 v. Chr. in den indischen Subkontinent vordrangen, bezeichneten sie den Fluss als „Indos“ und die Bewohner des Landes als „Indoi“, wovon sich das Wort Inder ableitet. Mit dem Vordringen der Muslime in den Sindh ab 711/712 n. Chr. wurde die einheimische Bevölkerung Hindus und das Land als „Al Hind“ genannt. Dies hatte auch steuertechnische Gründe, da Nicht-Muslime eine zusätzliche Steuer zu zahlen hatten, die Kopfsteuer. Somit gab es im westlichen Teil Indiens ab dem 8. Jahrhundert zwei Steuerkategorien: Muslime und Hindus. Diese aus der Steuerverwaltung entsprungene Bezeichnung wurde von allen nachfolgenden Herrscherdynastien weitergeführt, zuletzt von den Engländern, die die Strukturen der Mogulverwaltung übernahmen. Die Hindu-Identität konstruiert sich damit besonders durch ihr Verhältnis zu den herrschenden Muslimen als Nicht-Muslime. In der englischen Kolonialzeit entstand die künstliche Unterscheidung zwischen „Inder“ im säkularen und „Hindu“ im religiösen Sinn, im Unterschied zu Muslimen und Christen. Davon abgeleitet entstand „Hinduismus“ als Sammelbegriff für indische Religionen. Man bemerkte anfangs nicht, dass es sich um mehrere Religionen mit sehr verschiedenen Vorstellungen handelte, da die Anhänger dieser Religion absolut selbstverständlich und friedlich miteinander lebten. Der früheste Beleg für die Verwendung des Begriffs „Hindoo“ stammt aus dem Jahre 1808, der britische Colonel »Hindoo« Stewart verwendete ihn in seinem Pamphlet „Vindication of the Hindoos, by an bengal Officer“. Moderne Hindus ziehen den Ausdruck „Sanatana Dharma“ zur Beschreibung ihrer Religion vor. Innerhalb des Hinduismus gibt es monotheistische, dualistische und polytheistische Richtungen, Gottheiten erscheinen als persönliche oder unpersönliche Wesen. Die Hindu-Religionen verfügen weder über ein gemeinsames Glaubensbekenntnis noch über eine zentrale Institution, die Autorität für alle Hindus hätte. Nur einzelne Richtungen gehen auf einen bestimmten Gründer zurück. Die Ausprägung der indischen Philosophie und sogar die Gottesvorstellungen sind in den einzelnen Strömungen sehr verschieden, auch die Ansichten über Leben, Tod und Erlösung (Moksha) stimmen nicht überein. Der Priesterstand kann sowohl dem Brahmanentum als auch niedrigeren Kasten angehören, teilweise besteht er auch aus Unberührbaren. Für den persönlichen Glauben haben religiöse Lehrer (Gurus) oft einen großen Stellenwert. Trotz aller Unterschiede können Hindus der verschiedenen Richtungen weitgehend gemeinsam feiern und beten. „Einheit in der Vielfalt“ ist eine oft verwendete Redewendung im Hinduismus. Als Gegenbewegung zum säkularen Staatsmodell, das von Mahatma Gandhi als Lösung für die religiösen Konflikte, hauptsächlich zwischen Muslimen und Hindus, gesehen wurde, zeigte die Entwicklung des hinduistischen Nationalismus Ansätze einer Ideologisierung des Begriffs, besonders zur Abgrenzung zu den Muslimen. Die ideologischen Wurzeln dieses „politisierten Hinduismus“ liegen in der neo-hinduistischen Bewegung des indischen Unabhängigkeitskampfes. Dieser wurde mit dem Begriff Hindutva verbunden, der indischen Aneignung des Begriffs „Hinduismus“. Zu den führenden Ideologen zählt Vinayak Damodar Savarkar, ein radikaler Befreiungskämpfer, der 1910 von den Briten gefangen genommen wurde. Ziel der Hindutva-Bewegung ist die (Wieder-)Erschaffung einer einzigen Hindu-Nation. Savarkar bediente sich dabei des Rückgriffs auf eine „konstruierte“ gemeinsame Vergangenheit aller Hindus. Artikel 25 der indischen Verfassung, welcher der Religionsfreiheit und den diese einschränkenden Rechten des Staates gewidmet ist, enthält in einer Zusatzbestimmung zu Absatz 2b die Präzisierung, dass der Hinduismus auch Jainismus, Buddhismus und Sikhismus umfasst. Damit folgt die Verfassung durchaus Savarkars Forderung, unter Hindutva alle Religionen und Weltanschauungen zusammenzufassen, die auf indischem Boden entstanden sind und Indien als ihr Heiliges Land betrachten. Ursprünglich ging es vor allem darum, im Kampf um die Unabhängigkeit und die künftige Machtverteilung eine möglichst große Mehrheit von „Hindus“ gegenüber den Muslimen zu erreichen. Gegen diese „Vereinnahmung“ als „Hindus“ haben sich bisher nur die Sikhs vor dem Verfassungsgericht mit Erfolg gewehrt. Selbst auf der zweiten von der Vishva Hindu Parishad organisierten Welt-Hindu-Konferenz von 1979 konnten sich die Vertreter verschiedener hinduistischer Gruppierungen, Kasten oder religiösen Richtungen nicht auf eine gemeinsame Definition einigen. Immerhin entwickelte man einen Sechs-Punkte-Kodex für alle Hindus: Wer Gebete (suryapranama und prarthana) spricht, die Bhagavad Gita liest, eine persönliche Wunschgottheit (Murti, wörtlich „Götterstatue, Bild“) verehrt, die heilige Silbe Om verwendet und das heilige Kraut Tulsi („Indisches Basilikum“) anbaut, der darf sich „Hindu“ nennen. Doch diese Definition bleibt oberflächlich und wegen des Tulsi-Strauches zudem vishnuitisch gefärbt. Michaels (1998) sieht im Hinduismus eine Art von Sammelbegriff für Religionen, religiöse Gemeinschaften, sozio-religiöse Systeme, der fünf der folgenden Kriterien erfüllt: sind im südasiatischen Raum entstanden und verbreitet; die soziale Organisation ist durch Abstammungs- und Heiratsvorschriften gekennzeichnet (Kastensystem) (ursprünglich) dominieren vedisch-brahmanische Werte, Rituale und Mythen; die Erscheinungsformen von Shiva, Vishnu, Devi, Rama, Krishna oder Ganesha werden als göttliche Kraft oder Gott verehrt; oder zumindest nicht abgelehnt ein identifikatorischer Habitus, der in einer aus dem altindischen Opferwesen kommenden Heilsbezogenheit der Deszendenz steht, sich aber weitgehend hiervon abgelöst hat. Geschichte des Hinduismus Vorvedische Religionen (bis ca. 1750 v. Chr.) Über das religiöse Leben in den frühsteinzeitlichen Siedlungen ist fast nichts bekannt. Vermutlich wurden verschiedenste Geistwesen, Muttergottheiten und Bäume verehrt. Die Religionen waren gekennzeichnet durch Ahnenkult und Animismus. Die bronzezeitliche Indus-Kultur (ca. 2500–1500 v. Chr.) entwickelte sich entlang des Indus im Nordwesten des indischen Subkontinents. Dort gab es Stadtanlagen mit bis zu 40.000 Einwohnern, Bewässerungssystemen und rechtwinkligen Straßen. Häuser und Burgen wurden aus gebrannten, gleichmäßig geformten Ziegeln gebaut. Als erster versuchte John Marshall, der Ausgräber von Mohenjo-Daro und Harappa, die Indusreligion zu erklären und kam dabei zum Schluss, dass viele Erscheinungen des späteren Hinduismus in der Indusreligion bereits vorhanden waren. Dabei nannte er drei wichtige Aspekte: Verehrung der „Großen Muttergöttin“ (Great Mother Goddess), als Vorläuferin des Proto-Shaktismus. Die Göttin könne eine Protoform der hinduistischen Durga oder Shakti gewesen sein. Verehrung eines „Großen Männlichen Gottes“ (Great Male God), als Vorläufer des Proto-Yoga. Dieser vermutete Gott wurde schon 1928 von Mackay als Proto-Shiva bezeichnet, der sich „Herr der Tiere“, dem späteren Pashupati, annäherte. (Siehe Mohenjo-Daro Siegel 420) Das „Große Bad“ (Great Bath) in Mohenjo-Daro habe rituellen Waschungen gedient, die noch immer im Hinduismus eine außergewöhnlich wichtige Rolle einnehmen. Die Deutung der Abbildung des „Großen Männlichen Gottes“ ist jedoch ungesichert. Auch die Bestimmung der Darstellungen von (eventuell schwangeren) Frauen oder weiblichen Tonfiguren als Muttergottheiten bleibt spekulativ: „Aber man darf vermuten, daß Animismus, Dämonenkult, Fruchtbarkeitskulte, die Verehrung von Naturgewalten und Muttergottheiten die Religiosität bestimmte, wenngleich diese Anteile von späteren Stufen der Hindu-Religionen überlagert wurden und nur schwer herauszufiltern sind.“ Einige Forscher gehen davon aus, dass die Religion der Indus-Kultur ähnlich den Religionen der Sumerer, Ägypter und anderer antiker Völker polytheistisch war. Jedoch sei ein Alleinstellungsmerkmal das Fehlen monumentaler Bauwerke, vergleichbar den ägyptischen Pyramiden oder sumerischen Zikkuraten. Sie nehmen an, dass solche Bauwerke existierten, aber im Laufe der Zeit umgewandelt oder abgetragen wurden. Vedische Religion Die Vedische Religion entstand nach dem Zusammenbruch der Indus-Kultur im Norden Indiens oder im heutigen Pakistan. Zu den vier Veden gehören neben dem Rigveda noch Samaveda, Yajurveda sowie Atharvaveda. Alle hinduistischen Religionen akzeptieren die Unantastbarkeit dieser vier Veden, jedoch rechnen einzelne Glaubensrichtungen individuell oft noch weitere Schriften hinzu. Sie gelten als heilige Offenbarung (Shruti), sie fordern eine Verbindlichkeit vom Glaubenden in den Fragen der Religion, der Ethik und des gesellschaftlichen Zusammenlebens. Nach hinduistischen Vorstellungen existieren die Texte seit Ewigkeit und sind übernatürlichen Ursprungs. Frühvedische Phase (1750–1200 v. Chr.) Ab der Mitte des 2. Jahrtausends v. Chr. drangen verschiedene Stammesgruppen indoiranischer Viehnomaden von Zentralasien oder dem vorderen Orient in den nördlichen Punjab ein. Obwohl die Einwanderungsthese teilweise in Frage gestellt wird, bleibt die Tatsache bestehen, „daß man aus linguistischen und archäologischen Gründen nicht übersehen kann, daß sich ab etwa 1750 v. Chr. von Nordwesten eine neue Kultur ausbreitete, die wegen ihrer Texte auch als vedische bezeichnet wird, von der man aber nicht genau weiß, welche kulturhistorischen Veränderungen diesen ‚Eindringlingen‘ zu verdanken sind.“ Die vedische Religion stellt „eine der frühesten ... Quellen des Hinduismus“ dar. Die Veden haben im heutigen Hinduismus in Bezug auf deren Inhalte keine große Bedeutung, jedoch gelten sie als „Synonym für absolute und unangreifbare Wahrheite[n]“. Arier war eine Selbstbezeichnung der Einwanderer und kommt vom vedischen árya, das „ehrwürdig“ bedeutet. Damit war wohl weniger eine rassische Grenze gemeint als vielmehr eine kulturelle und sprachliche; es wurde ein Bekenntnis zu bestimmten moralischen Werten ausgedrückt, wie Vertragstreue, Gastfreundschaft, Wahrhaftigkeit und zur von den Göttern etablierten Ordnung. Das weitere Vordringen in den Nordwesten Indiens und der Übergang vom Halbnomadismus zur Sesshaftigkeit erfolgte in mehreren Stufen. Das Wissen über diese Zeit fußt im Wesentlichen auf den Büchern I bis IX des Rigveda und altiranischen Quellen, denn die Aryas hinterließen erstaunlich wenig für die Archäologie. Die Texte wurden zunächst mündlich weitergegeben. Dass sie in solchem Umfang und solcher Genauigkeit überliefert sind, „verdanken wir dem Umstand, daß es sich bei den Arya um Stämme mit nomadischer oder semi-nomadischer Lebensweise handelte, die ihre Gruppenidentität nicht dem Bau fester Wohnstätten und der dauerhaften Zugehörigkeit zu einer bestimmten Landschaft verdankten, sondern einem von Kind an trainierten kulturellen Gedächtnis, in dem der Stamm die Legenden seiner Helden, die Mythen seiner Götter und auch die Priesterlieder bewahrte, mit denen inspirierte Priester die Götter zum Opfer gerufen und als Bundesgenossen gewonnen hatten“. Das polytheistische Weltbild hat eine deutliche Verwandtschaft mit der Götterwelt der alten Iraner, Griechen und anderer indogermanischer Völker. Der Vater der himmlischen Götter war der Himmel Dyaus Pita (vgl. Zeus Pater und Jupiter) und die Göttermutter Aditi. Die Kinder bezeichneten die Arier als Aditas („Söhne der Aditi“) oder Devas („Himmlische“). Ein zentrales Merkmal des Kults waren Nahrungsopfer, die die Götter stärken sollten, damit diese ihrerseits die kosmische und moralische Ordnung schützten. Die Opferpraxis ist noch immer eine kulturelle Eigenart Indiens geblieben. Darin hat auch die verbale und rituelle Kommunikation zwischen Mensch und Gottheit ihren Ursprung. Der Opferdienst fand unter freiem Himmel oder in einfachen, wechselnden Opferhütten statt. Dabei spielte die Zubereitung des Rauschtranks Soma eine wichtige Rolle. Heinrich von Stietencron vermutet, dass etwa im 10. Jahrhundert v. Chr. begonnen wurde, die verschiedenen Überlieferungen zusammenzutragen. Es entstanden zunächst drei Sammlungen vedischen Wissens (Veda „Wissen“), der Rigveda, der Samaveda und der Yajurveda, die das „dreifache Wissen“ (trayi vidya) bildeten. Später wurde der Atharvaveda als vierter Veda anerkannt. Mittelvedische Phase (1200–850 v. Chr.) Die mittelvedische Zeit ist vor allem in Rigveda X, den Mantras des Yajurveda und den älteren Brahmana-Texten erfasst. Die Arier sind bereits im oberen Gangestal anzutreffen. Es gibt erste Staatsbildungen mit Stammeshäuptlingen und konkurrierenden Priestern über das Volk der Gemeinen. Das Opferwesen gewann zunehmend an Bedeutung. Während die Götter in frühvedischer Zeit durch Gebete oder beim Opfer zur Hilfe überredet wurden, zwangen nun die Priester die Götter, den Gesetzen zu gehorchen, denen das Opfer und die Weltordnung unterliegen. Durch ihre Opferwissenschaft erlangten die Priester eine nie gekannte Macht. Sie nannten sich selbst Brahmanen und erklärten sich zur Personifizierung des Brahman. Spätvedische Phase (850–500 v. Chr.) Es kam zum Aufbau von zentralisierten Königtümern und die berufsständische Gliederung hat sich als Gesellschaftsordnung im Varna (Kaste)-System gefestigt. Als Bestandteil des Veda kamen die Brahmanas hinzu. Diese bieten Kommentare, ausführliche Anweisungen zum Ritual und theologische Begründungen oder spekulative Andeutungen jeder der Opferhandlungen. An die Brahmanas schließen sich die Aranyakas („Waldtexte“) an. Es handelt sich dabei um Ritualtexte für die orthodoxen Brahmanen, die sich in die Waldeinsamkeit zurückgezogen hatten. Sie waren Wegbereiter der Upanishaden, vertraulicher philosophischer Deutungen, die nur für einen engen Kreis von Schülern gedacht waren, die sich so „nahe niedersetzen“ (upa-ni-shad), dass es kein Unberufener hört. Die mythisch-allegorische Ausdeutung des Opfers wird in den asketischen Kreisen höher bewertet als die Durchführung des Rituals. Wenn in Indien vom Veda die Rede ist, sind vor allem die Upanishaden gemeint, die man auch als das „Ende des Veda“ (Vedanta) bezeichnet. Damit vollzieht sich ein Wandel, der sich religionshistorisch in zwei neuen Lehren zeigt: In der Lehre von Brahman und Atman und in der Wiedergeburtslehre. Brahma stellt das Prinzip der Schöpfung dar. Es ist das Eine, aus dem alles hervorgegangen ist: „Das Brahman ist jenes Bleibende, das hinter dem gesprochenen Wort liegt, das Unsichtbare, Unhörbare, nicht Tastbare, aber eigentlich Wirksame, das allem Dasein zugrunde liegt.“ Daneben bezeichnet Atman das individuelle Selbst, die unzerstörbare, ewige Essenz des Geistes. Es sei ständig existent und nie von der kosmischen Kraft, dem Brahman, getrennt, es verändere sich nicht. Als Ziel des Lebens gilt es hier, die Einheit von Atman und Brahman zu erkennen. Dazu dient der Weg der Meditation, des Yoga und der existentiellen Erkenntnis. Religionsgeschichtlich fand ein Systemwechsel statt. An Stelle des Polytheismus trat der Monismus. Die entmachteten Götter wurden dem Brahman als dem herrschenden Prinzip untergeordnet. Ein weiteres wichtiges Thema der Unpanishaden ist die Wiedergeburtslehre (Sanskrit: punarbhava = beständiges Werden) und die Lehre von den Tatenfolgen (Karma). Der Atman, die unsterbliche Seele, verkörpert sich nach dem Tod des Körpers wieder. Nach der Karmalehre ist die Qualität des künftigen Leibes und der künftigen Erfahrungen vorgeprägt durch die früheren Handlungen. Als wichtigste Errungenschaft wurde damit das Problem der Theodizee (in etwa „Gerechtigkeit Gottes“) gelöst. Die Ungerechtigkeit der Welt stammt nicht von einem ungerechten Gott, sondern jeder hat sein Schicksal selber verursacht. Als Gegensatz zum monistischen Denken etablierten sich auch erste Ansätze monotheistischen Denkens. Als gab also eine Alternative zum gestaltlosen (arūpa), eigenschaftslosen (nirguna) und unerkennbaren (acintya) Brahman in der Form eines personalen Gottes mit Eigenschaften (saguna). Die Personifizierung dieser nicht greifbaren Macht vollzog sich sprachlich lediglich durch die Verschiebung des Akzentes von der ersten Silbe (bráhman) auf die zweite (brahmán) und durch den dadurch entstehenden Genuswechsel. Inhaltlich war der Wunsch nach einem omnipotenten Schöpfergott, der über ein klar benennbares Bewusstsein und eine definierte äußere Form verfügen musste, ausschlaggebend. Da der Veda jedoch nichts über eine Gottheit mit dem Namen Brahmā überlieferte, musste dieser nun mit bereits bestehenden und durch den Veda belegten Gottheiten identifiziert werden. Hierfür bot sich ein bis dato namenloser Gott mit dem Titel „Herr der Geschöpfe“ (Prajāpati) an, der fortan Brahmā zugeordnet wurde. Weitere Legitimation erfuhr die neu erschaffene Gottheit Brahmā durch die Assoziation mit der bereits bekannten Vorstellung eines goldenen und unvergänglichen Embryos (hiranyagarbha), welcher über Leben und Tod herrschte und gegenüber anderen Gottheiten weisungsbefugt war. Ferner galt diese Gottheit als Schöpfer der Erde und des Himmels. Diese personifizierte Schöpfergottheit findet im Rigveda vor allem unter den Namen Prajāpati und Purusha, in späterer Zeit unter den Namen Bhagavān oder Īshvara Erwähnung. Asketischer Reformismus (500–200 v. Chr.) Seit dem 5. Jahrhundert v. Chr., der Zeit der Städteentwicklung, des Stadtkönigtums und Stadtadels, nutzten verschiedene Bewegungen die Schwächung der vedischen Opferreligion. Zwar hielten die Brahmanen weiterhin das Monopol auf das Opfer als Heilsweg, aber vor allem der durch den Handel bedingte wirtschaftliche und gesellschaftliche Wandel ermöglichte mehr Individualismus. Die bislang schwelende Kritik am brahmanischen Opferwesen nahm zu. Asketische Reformbewegungen suchten nach einer Möglichkeit, dem ewigen Kreislauf der Geburten zu entrinnen. Man entwarf mönchische Lebensformen, in denen Reinheit, Bedürfnislosigkeit, Gewaltlosigkeit und Meditation geübt wurden. Die Abkehr von der Welt galt als Voraussetzung der Selbstbefreiung. Zwei dieser Mönchsbewegungen konnten sich auf Dauer durchsetzen: der Jainismus und der Buddhismus. Beide waren Reformbewegungen, die vom Kriegerstand im östlichen Gangestal (Bihar) ausgingen, wo die Fürsten größtenteils nicht-arischer Herkunft waren. Von den Lehren der Upanishaden waren die Wiedergeburts- und Karmalehre die einzigen, die übernommen wurden. Der Buddhismus war von Indien bis nach Zentralasien lange Zeit die zumindest politisch favorisierte Religion. Der Brahmanismus und der Volkshinduismus lebten jedoch weiter. Nachdem Alexander der Große 327 bis ins Industal vorgedrungen war, hatten die vielen nordindischen Königtümer griechische oder skythische Oberherren anzuerkennen. Es bildeten sich synkretische Kulturen: „Die hindu-religiöse Fähigkeit zur Anpassung und Vereinnahmung fremdreligiöser Einflüsse hat sich wohl in dieser Zeit und im Kontakt mit diesen mannigfaltigen äußeren Kulturen herausgebildet.“ Klassischer Hinduismus Vorklassischer Hinduismus (200 v. Chr.–300 n. Chr.) Der vorklassische Hinduismus beginnt mit dem Zusammenbruch des Maurya-Reichs und geht bis zum Beginn des Gupta-Reichs. In dieser Umbruchsphase gehen viele Elemente der vedischen Religion verloren. Dass sich die Hinduisierung weiterer Religionen ohne kriegerische Mittel vollziehen konnte, kann als welthistorische Leistung Indiens angesehen werden. Der frühe Hinduismus beruht aber nicht nur auf Akkulturation oder asketischen Reformbewegungen, sondern auch auf Restauration. Möglicherweise durch religiöse Orientierungsverluste begründet, besann man sich auf alte Traditionen und begann das brahmanische Erbe zusammenzutragen. Eine religiöse Eigenständigkeit konnte auch durch das Sanskrit bewahrt werden, das man an den Höfen wiederbelebte. Brahmanische Priester erklärten lokale Gottheiten zu Erscheinungsformen ihrer jeweiligen Hochgottheit und nahmen sie so in das hinduistische Pantheon auf. Daneben gab es einen Niedergang der vedischen Götter und einen Aufstieg von Gottheiten, die im Veda nicht oder nur kaum Erwähnung finden, besonders Shiva und Vishnu, beziehungsweise ihre Erscheinungsformen. Blütezeit (300–650) Mit dem Beginn der Gupta-Herrschaft kommt der klassische Hinduismus zu einer Blütezeit, der erst mit dem Zusammenbruch des Harsha-Reichs einen Einbruch erleidet. Die Brahmanen gewinnen zunehmend an Macht und Wohlstand, demgegenüber erfolgt eine Abwertung von Shudras und Frauen. Kinderverheiratung wird üblich, ebenso Witwenverbrennung und das Verbot der Wiederverheiratung. Es setzte sich das Verbot der Rinderschlachtung durch. Als Ausdruck des feudalen Systems entstanden erste Hindutempel, beispielsweise der Durga-Tempel in Aihole. Diese hatten spitze Türme (Shikhara) als kultische Zentren, in denen eine Hochgottheit im Sanktuarium und andere Gottheiten in den Nischen, Türen oder kleineren Nebenbauten verehrt wurden. Als Folge kamen Wallfahrten auf, denn die monumentalen Bauten zogen das Volk an. Außerdem entstand in dieser Zeit der hinduistische Götterdienst (Puja), der altindische Bewirtungsformen von hochstehenden Gästen mit höfischem Zeremoniell verbindet. Spätzeit (650–1100) Mit dem Zusammenbruch des Harsha-Reiches entstand eine politische Situation, die dem europäischen Feudalismus ähnlich war. Kleinere Königtümer, die sich bekämpften oder lose verbunden waren, waren auf den Schutz der größeren Königtümer angewiesen. Der Zerfall der Großreiche führte auch in der Religion zu Regionalisierung und Rivalität. Lokale Kulte und Regionalsprachen wurden aufgewertet, der brahmanisch-ritualistische Hinduismus bekam wieder einmal Gegenwind. Es zeigte sich eine Bevorzugung von lokalen Göttern, die zu Erscheinungsformen Vishnus und Shivas erklärt wurden. Daneben wurden ebenso Götter-Helden wie Parashurama und Krishna Vasudeva zu Erscheinungsformen Vishnus erklärt. In dieser Spätzeit des klassischen Hinduismus reifen typisch hinduistische Richtungen wie Shivaismus, Vishnuismus, Bhakti und der Tantrismus. Hinzu kamen ländliche, devotionale Bewegungen und vereinzelt schon nicht- oder anti-brahmanische Stiftungsreligionen. Besonderen Einfluss hatte der Wanderasket Shankara (ca. 788–820). Dieser entwickelte die Philosophie des Advaita Vedanta weiter, ein monistisches System, das die Welt auf ein einziges Prinzip zurückführt und predigte damit gegen brahmanischen Ritualismus und Buddhismus. Er begründete verschiedene asketische Gruppierungen. Die bis in die Gegenwart existierenden Shankaracharya-Orden gehen auf Shankaras vier wichtigste Schüler zurück. Islamische Ausbreitung und Sekten-Hinduismus (1100–1850) Diese Epoche steht unter dem Einfluss von Islam und später Christentum. Im Unterschied zu innerindischen Religionen wurden diese monotheistischen Religionen weniger durch die Hindu-Religionen vereinnahmt. Zwar gab es zahlreiche Vermischungen, aber die Fremdreligionen blieben fremde Religionen, vermutlich weil diese das Kastensystem nicht tolerierten und sich aufgrund ihrer politischen und ökonomischen Überlegenheit eigene religiöse Strukturen besser behaupten konnten. Seit der Eroberung des Sindh durch muslimische Heere im Jahr 711 gibt es eine Präsenz des Islams auf dem indischen Subkontinent. Diese stagnierte territorial zunächst, erweiterte sich jedoch unter der Dynastie der Ghaznawiden Ende des 11. Jahrhunderts bis in den Punjab und führte unter dem Einfluss der Ghuriden und des frühen Delhi-Sultanats zur Oberherrschaft über weite Teile Nordindiens. Es ist irreführend, in diesem Zusammenhang von einer Invasion des indischen Subkontinents zu sprechen, da diese Bezeichnung ein Konstrukt auf der Grundlage des kolonialen britischen Herrschaftsgebietes im 19. Jahrhundert ist und die territoriale Weltwahrnehmung im vorkolonialen Zeitalter eine grundlegend andere war. Seit Jahrhunderten gab es einen etablierten Kontakt des Industals und der Gangesebene mit den Regionen Afghanistans (ein frühes Zentrum des Buddhismus) und Zentralasiens (vgl. die Kuschana-Dynastie). Darüber hinaus muss die Einseitigkeit der vorherrschenden (muslimischen und hinduistischen) Geschichtswerke der damaligen Zeit in Betracht gezogen werden, die im Wesentlichen den Herrschaftsinteressen der verschiedenen Machthaber verpflichtet waren und in denen in der Regel eine tiefe und unversöhnliche Feindschaft zwischen Muslimen und Hindus dokumentiert ist. Zum einen verliefen die Rivalitäten nicht allein entlang religiöser Linien; die verschiedenen hinduistischen Herrscher der Zeit vor der islamischen Eroberung waren zum Teil tief verfeindet und überzogen sich mit Kriegen, und die Plünderungen muslimischer Heere in Nordindien richteten sich mitunter auch gegen als häretisch angesehene Muslime (z. B. Schiiten). Zum anderen ist die Plünderung hinduistischer Tempel durch muslimische Herrscher nicht vorrangig als Akt religiöser Unterdrückung zu sehen, sondern eher als politische Maßnahme der Zerstörung der zentralen Trägerorte des jeweiligen Herrscherkultes und somit der ideologischen Fundierung der königlich-hinduistischen Macht. Dadurch wird die Brutalität und Rücksichtslosigkeit der entsprechenden Aktionen nicht gemindert, es wird jedoch vermieden, dieses Geschehen in den Kontext heutiger explizit religiöser Konflikte zwischen Hindus und Muslimen zu stellen und dies so zu verzerren. Über die konkreten tagespolitischen Konflikte hinaus hatte die muslimische Präsenz in Nordindien (längerfristig) einen wesentlichen Einfluss auf die dortigen regionalen Kulturen in vielen Gebieten (z. B. der Architektur, der Literatur und der bildenden Kunst, der Staatstheorie und Verwaltung, aber auch auf religiösem Gebiet). Der Einfluss des Sufismus spielte eine wesentliche Rolle in der Bildung lokaler religiöser Identitäten im Punjab und anderen Regionen Nord- und Westindiens, nicht nur unter Muslimen. Es kam zur Herausbildung verschiedenster Mischformen religiöser Praktiken, insbesondere im Umfeld der Gräber von Sufi-Heiligen. Die Verschmelzung der religiösen Lebenswelten führte so weit, dass dem von der britischen Kolonialregierung durchgeführten Zensus aus dem Jahr 1911 für die Region Gujarat die Zahl von ca. 200.000 Mohammedan Hindus (also muslimischen Hindus) zu entnehmen ist. Im Punjab entstand ab dem Beginn des 16. Jahrhunderts zudem der Sikhismus. Die Herrschaft der Moguln im 16. und 17. Jahrhundert vertiefte den islamischen Einfluss auf die hinduistischen Gesellschaften Nordindiens. Obwohl die verschiedenen Herrscher in unterschiedlichem Maße den Ratschlägen ihrer orthodoxen islamischen Eliten folgten und zuweilen mit Gewalt gegen hinduistische Tempel vorgingen, zeugt doch die Präsenz einer Vielzahl von hinduistischen Verwaltungsbeamten und Heerführern am Mogulhof sowie die zuweilen massive Dominanz von hinduistischen Überseehändlern insbesondere in Gujarat von einem weitgehend friedlichen Zusammenleben von Muslimen und Hindus in Indien in der Epoche muslimischer Herrschaft auf dem Subkontinent. Als Gegenreaktion auf die islamische Vormacht und auch in Fortsetzung der vorherigen Regionalisierungen bildeten sich in den Hindu-Religionen zwei Neuerungen heraus: die Sekten und die Historisierung als Vorläufer des späteren Nationalismus. Die Sekten waren Gefolgschaften mit charismatischen Führern oder Dichterheiligen ohne organisierten Anhang (zum Beispiel Tulsidas und Chaitanya). Sie verfassten hingebungsvolle Werke. Daneben predigten Sektenführer wie Tukaram und Samartha Ramdas Ideen, die das Hindutum und die Vergangenheit verherrlichten. Vielleicht stellt die devotionalistische Verinnerlichung der Religiosität eine Reaktion auf äußere Bedrängungen vor. Auch die Brahmanen verfassten zunehmend historisierende Texte oder entwickelten eine rückbesinnliche Sammelleidenschaft, indem sie umfangreiche Zutatensammlungen zu vielen Themen kompilierten. Der Niedergang des Mogulreiches fiel mit der Ankunft der East India Company zusammen, die den Hinduismus mit christlichem und abendländischem Gedankengut konfrontierte. Moderner Hinduismus (ab 1850) Im 19. Jahrhundert entstanden in Indien verschiedene religiös-soziale Reformbewegungen, die aus der Begegnung Indiens mit Europa und der Industrialisierung hervorgingen und meist „Neohinduismus“ genannt werden. Die Briten verfolgten zunächst die Strategie, sich aus religiösen Streitfragen herauszuhalten. Zu Konflikten über religiöse Fragen kam es erst, als man in London forderte, gegen Missstände wie Witwenverbrennung und Kinderverheiratung vorzugehen, wodurch in Indien Minderwertigkeitsgefühle gegenüber der britischen Kolonialmacht wuchsen. So entzündete sich der indische Aufstand von 1857 an einer religiösen Frage: Als Auslöser des Aufstands gilt gemeinhin die Einführung des Enfield-Gewehres, dessen Papierpatronen nach einem unter britisch-indischen Streitkräften weit verbreiteten Gerücht mit einer Mischung aus Rindertalg und Schweineschmalz behandelt waren. Da die Patronen vor dem Einsatz aufgebissen werden mussten, stellte ihre Verwendung für gläubige Hindus wie Moslems einen Verstoß gegen ihre religiösen Pflichten dar. Nach dem Vorbild der christlichen Mission gründete Swami Vivekananda 1897 die Ramakrishna-Mission, mit dem Ziel, die Lehre des Vedanta, den er als Vollendung der Religionen betrachtete, auf der ganzen Welt zu verbreiten. Sein Lehrer Ramakrishna vertrat die Ansicht, alle Religionen der Welt verkündeten dieselbe Wahrheit, die Vielfalt der Religionen sei lediglich Schein (Maya). Die Rede Vivekanandas vor dem Weltparlament der Religionen 1893 in Chicago, in der er erstmals den Hinduismus als Universalreligion vorstellte, war die erste Gelegenheit, bei der sich der Hinduismus außerhalb Indiens präsentierte. In indischen Intellektuellenkreisen bildeten sich ethische Reformbewegungen, die das Kastensystem und die Tradition der Witwenverbrennung verurteilten und eine Demokratisierung der Hindu-Religionen ohne priesterliche Dominanz der Brahmanen anstrebten. Im Zuge dieser Entwicklung begannen Hindus sich als Einheit aufzufassen. Von Anfang an war der Neohinduismus mit den Unabhängigkeitsbestrebungen verbunden. Beispiele dafür sind die neohinduistischen Reformbewegungen von Brahmo Samaj (gegründet 1828), Ramakrishna (1836–1886), Sri Aurobindo (1872–1950), der Theosophischen Gesellschaft (gegründet 1875) und Mahatma Gandhi (1869–1948). Demgegenüber betonten Vertreter des Arya Samaj (gegründet 1875) einen „vedischen“, von westlichen und islamischen Einflüssen gereinigten Hinduismus. Die Phase der christlich-hinduistischen Begegnungen wird mit der Unabhängigkeit Indiens (15. August 1947) durch hinduistische Tendenzen abgelöst. Nach Axel Michaels ist noch nicht erkennbar, „welches Etikett diese Phase einmal tragen wird.“ Die Unabhängigkeitsbewegung Indiens unter Mahatma Gandhi mit seinem gewaltfreien Widerstand auf Basis seiner Grundhaltung Satyagraha trug zu einem größeren Interesse an hinduistischen Traditionen in der westlichen Welt bei. Außerdem entstand ein nach Westen orientierter, missionarischer Hinduismus, den Michaels als „Guruismus“ bezeichnet. Zu den bekanntesten Vertretern gehören Jiddu Krishnamurti, Maharishi Mahesh Yogi, Sathya Sai Baba und Bhagwan Shree Rajneesh. Mögliche Einteilungen des Hinduismus Einteilung in drei Hindu-Religionen nach ritueller Praxis Die Einteilung des Hinduismus in drei Hindu-Religionen ist eine in Indien selbst getroffene Kategorisierung. Sie entspricht den Unterteilungen ritueller Praktiken in vedische (vaidika), dörflich-volksreligiöse (gramya) und sektarische (agama oder tantra). Hindu-Religionen treten jedoch nicht ungemischt auf und die Inder sehen diese Grenzziehungen nicht als Ausgrenzungen. Brahmanischer Sanskrit-Hinduismus Dies ist eine polytheistische, sehr stark ritualistische, brahmanische Priesterreligion mit Berufung auf die Veden als Autorität. Sie ist nahezu in ganz Südasien verbreitet. Im Zentrum stehen großfamiliäre Haus- und Opferrituale. Diese Religion steht im Vordergrund der meisten Abhandlungen über den Hinduismus. Sie erfüllt viele der üblichen Kriterien, die an eine Religion gestellt werden: kanonische Texte (Veda), heilige Sprache (Sanskrit), sichtbare Zugehörigkeit (Heilige Schnur) und einheitliches Priestertum (Brahmanen). Sie ist in vielen Regionen Indiens die dominante Religion, die nicht-brahmanische Bevölkerungsgruppen nachzuahmen trachten. Die verehrten Hochgötter sind besonders Shiva, Vishnu, Devi, Rama, Krishna und Ganesha oder Erscheinungsformen davon. Unter den Anhängern bestehen viele Gemeinsamkeiten in häuslichen Ritualen (Geburt, Initiation, Heirat, Tod), Pilgerwesen, Festtagen, Gelübden, Ernährung und der Heiligen Kuh. Die meisten Hindus, auch die Brahmanen, praktizieren jedoch mindestens eine weitere Religion aus dem Bereich der Volksreligionen. Hinduistische Volksreligionen Hinduistische Volks- bzw. Stammesreligionen sind polytheistische, teilweise animistische Religionen mit lokalen, gemeinschaftlichen und kastenübergreifenden Festen und Verehrungsformen sowie oralen Traditionen oder Texten in den Volkssprachen. Diese Religionen haben eigene Priester und meist nur lokal verehrte Gottheiten, einschließlich vergöttlichter Helden und Geister, von denen Menschen besessen werden können. Die Verehrungsformen gelten dem brahmanischen Sanskrit-Hinduismus oft als unrein. Dadurch können Spannungen zwischen Volksreligion und brahmanischem Hinduismus entstehen. Der populäre Hinduismus vermischt jedoch oft Formen des brahmanischen Sanskrit-Hinduismus mit volksreligiösen Elementen. Gestiftete Religionen Stifterreligionen zeichnen sich durch Religionsstifter aus, die aktiv oder passiv den Anstoß zur Bildung einer neuen Religion gegeben haben sollen. Im Hinduismus sind es oft asketische, antibrahmanische und missionierende Erlösungsreligionen mit monastischen Gemeinschaften und Basistexten der Stifter. Ursprünglich waren auch Buddhismus, Jainismus und Sikhismus solche Stifterreligionen. Diese entfernten sich aber so weit von der Autorität des Veda und den brahmanischen Priestern, dass sie sich als eigene Religionen etablieren konnten. Einige Richtungen werden als „Sektenreligionen“ bezeichnet. Das Wort „Sekte“ bezeichnet im Hinduismus jedoch nicht eine abgespaltene oder ausgeschlossene Gemeinschaft. Es steht keine Häresie im Vordergrund. Vielmehr meint es eine organisierte, meist von einem Stifter begründete Tradition mit asketischer Praxis, in der die Gefolgschaft im Zentrum steht. (Siehe auch Hinduistische Orden) Zu den Sektenreligionen zählen beispielsweise: Vishnuitisch: Srivaishnava, Pancharatra, Ramanandi, Naga, Tyagi Shivaitisch: Dashanami, Natha, Pashupata, Aghori Eine weitere Richtung innerhalb der gestifteten Religionen sind „synkretische Stifterreligionen“. Dabei vermischen sich verschiedene religiöse Ideen oder Philosophien zu einem neuen System oder Weltbild. Dazu gehören folgende Mischreligionen: hindu-muslimische: Sikhismus mit Udasis, Kabirpanthis hindu-buddhistische: Newar-Buddhismus hindu-christliche: Arya Samaj, Brahmo Samaj, Ramakrishna, Vivekananda, Sri Aurobindo, Theosophische Gesellschaft „Missionierende Stifterreligionen“ (auch „Guruismus“) sind im Westen verbreitete, von charismatischen Personen (Gurus) begründete Religionsgruppierungen mit überwiegend englischen, esoterischen Schriften der Gurus. Dazu gehören Sathya Sai Baba, A. C. Bhaktivedanta Prabhupada (ISKCON), Prem Rawat, Rajneesh Chandra Mohan (Neo-Sannyas). Große und kleine Tradition Die Einteilung in große und kleine Tradition geht auf zwei Wissenschaftler zurück: Der Soziologe M. N. Srinivas unterschied 1952 zwischen dem „Sanscritic Hinduism“ beziehungsweise „All-India and Peninsular Hinduism“ und dem regionalen und dörflichen Hinduismus. Der Ethnologe Robert Redfield trennte zwei Jahre später zwischen „Great“ und „Little Tradition“. Unter Großer (oder hoher) Tradition versteht man den sanskritischen, brahmanischen, über ganz Südasien verbreiteten Hinduismus, als kleine Traditionen dagegen die Volksreligionen und Sekten. Allerdings wird diese Unterteilung teilweise nach sehr unterschiedlichen Kriterien vorgenommen: nach Kaste (hochkastiger und niedrigkastiger Hinduismus), Sprache (Sanskrit und Volkssprachen), regionale Verbreitung (Stadt und Dorf beziehungsweise Überregionalität und Regionalität) oder Religion (Hochreligion und Volksreligion beziehungsweise Hochgötter und lokale Götter). Nach Axel Michaels kann aber nur der brahmanische Sansrit-Hinduismus das Prädikat „Große Tradition“ beanspruchen, wenn man damit an geläufige Vorstellungen von einer Hochkultur (einheitliche Texte, Priestertum, Hochgötter) anknüpfen will. Hauptrichtungen Vishnuismus Der Vishnuismus nimmt Vishnu als höchstes Allwesen an, dem alle anderen Götter untergeordnet oder aus dem sie hervorgegangen sind. Im Vishnuismus haben sich mehrere religiöse Strömungen unterschiedlichen Ursprungs vereinigt. Die drei Hauptströmungen sind: der Kult des vedischen Gottes Vishnu: Hier wurden vier Gotteskonzepte der Tradition des Yajurveda vereinigt: Vishnu, Narayana, vedischer Purusha und Purusha des Samkhya. der Heroenkult des Vasudeva Krishna: Dieser kam im 4. oder 3. Jahrhundert hinzu und stammte aus der epischen Tradition. Die Bhagavad Gita ist das einflussreichste Zeugnis dieser frühen Theologie. der Heroenkult des königlichen Helden Rama aus dem Epos Ramayana: Dieser kam als letzter im 2. Jahrhundert n. Chr. hinzu. Rama wurde nun als Inkarnation des Vishnu angesehen. Rama und Krishna sind nur die bekanntesten Manifestationen des Vishnu. Um den Dharma im Sinne einer gerechten kosmologischen und menschlichen Ordnung zu schützen, inkarniert er sich immer, wenn die Weltordnung (Dharma) ins Schwanken zu geraten droht, auf der Erde. Diese Inkarnationen werden Avataras genannt (siehe Die 10 Avataras). Seit dem 20. Jahrhundert ist es daher nicht ungewöhnlich, dass Anhänger Vishnus auch Jesus Christus verehren, denn in der Bibel, insbesondere im Buch der Offenbarung (Kap. 19), ist von Christus als endzeitlichem Richter die Rede, der auf der Erde erscheint, um die Welt zu richten. Dem Selbstverständnis nach sind einige vishnuitische Strömungen monotheistisch, da sie Vishnu, den „Einen ohne einen Zweiten“, verehren, beziehungsweise seine Inkarnationen, die Avataras. Jeder der großen Zweige der Vishnuiten (Verehrer Vishnus, Krishnas und Ramas) hat jedoch deutlich verschiedene Theologien ausgebildet. Eine oberste Lehrinstanz gibt es nicht. Im Prinzip triumphiert die Freiheit des Denkens und der religiösen Erfahrung über jede Dogmatik. Vedische Komponenten Tatsächlich ist Vishnu bereits im Veda der Name eines Gottes, wenn auch eines eher untergeordneten. Im Rigveda erscheint Vishnu vor allem als ein Gott mit kosmischer Bedeutung. Ursprünglich war er wohl ein Gott der Sonne, des Lichtes und der Wärme, der die Zeit in Bewegung setzte, das Universum durchdrang und den Raum ausmaß. Er zählte zu den Adityas, den Söhnen der Göttin Aditi, die teilweise auch als seine Frau galt. Im Yajurveda (Taittiriya Samhita 2.1.3) und ausführlicher im Shatapatha-Brahmana erfährt man, dass Vishnu ein Zwerg ist. Der Zwerg ist das Opferfeuer, das als winziges Glimmen entsteht und dann zu einer mächtigen Größe aufflammt. Somit wird Vishnu zum gigantischen Riesen, dessen Füße das Opferfeuer und dessen Kopf (oder Auge) die Sonne darstellen. Der Rauch und die Opfergaben, die dieser mit sich führt, folgen der Weltachse bis hinauf zum Himmel, den das Opfer stützt. Die Deutung Vishnus als personifiziertes Opfer, dessen kosmogonische Kraft Himmel und Erde voneinander trennt und Raum für Leben schafft, meint das Opfer in der Gesamtheit seiner rituellen Bezüge. Vishnu wird mit Purusha gleichgesetzt, der in der berühmten Hymne Rigveda 10.90 das Urindividuum ist, aus dem die Welt und die Varnas (Kasten) entstehen. Zu Beginn des kosmogonischen Prozesses bringt das Opfer (Vishnu) sich selbst zum Opfer, und zwar als Menschenopfer, die höchste Form des Opfers. Er opfert sich selbst (als Purusha = „Mann“) in sich selbst (als dem Opfer). Purusha wird mit tausend Köpfen und tausend Füßen beschrieben. Vishnu wird auch gleichgesetzt mit dem kosmischen Gott Narayana. Dargestellt wird dieser meist mit vier Armen sowie den Attributen Rad (chakra), Schneckenhorn (shankha), Lotos (padma) und Keule (gada). In einer besonders bekannten Darstellung ruht Narayana, hier mit dem Beinamen Anantashayi, als menschengestaltiger Gott zwischen zwei Weltperioden auf einem Schlangenbett im kosmischen Ozean, dem Milchozean. Auf der Lotosblüte, die aus seinem Nabel entsteht, thront der vierköpfige Brahma, der in seinem Auftrag eine neue Schöpfung hervorbringt. Vishnu-Narayana ist deutlich eine Gottheit aus dem priesterlichen Milieu, die als Opferer wirkende Ursache und als Geopferter materielle Ursache ist. Vāsudeva Krishna Spätestens seit Ende des 5. Jahrhunderts v. Chr. wurde in Nordindien Vasudeva Krishna verehrt. Dieser ist aus dem Epos Mahabharata bekannt als vergöttlichter Heros aus dem Stamm der Yadavas. In den älteren Teilen des Epos ist er der Freund und Wagenlenker des Helden Arjuna, in jüngeren Teilen ist er eine menschliche Manifestation der höchsten Gottheit. Bereits im 2. Jahrhundert v. Chr. wird er mit Vishnu identifiziert. Verschiedene Überlieferungs-Traditionen fanden eine Zusammenführung in der Bhagavad Gita (3./2. Jahrhundert v. Chr.), die in das Epos Mahabharata eingefügt wurde und bald so bedeutend wurde, dass man sie auf eine Stufe mit den Upanishaden stellte. In der Schlacht von Kurukshetra steht Krishna Arjuna als Freund und Beschützer sowie als geistiger Führer zur Seite. Vor Beginn dieser Schlacht offenbart er sich Arjuna als der Höchste. Als Fürst und Wagenlenker von Arjuna zieht Krishna mit in die Schlacht. Arjuna zögert zu kämpfen, da auf der Gegenseite viele Verwandte stehen. Krishna belehrt ihn über seine Pflicht, Dharma, als Krieger Kshatriya zu kämpfen sowie über die Unsterblichkeit der Seele Atman. Der Mensch Krishna ist nach diesem Text der höchste Gott, der auch allein die Wünsche erfüllt, welche an die Götter gerichtet werden. Der Harivamsha ist ein Nachtrag zum Epos, der Krishnas historischen Stammbaum und seine Lebensgeschichte enthält. Das Thema wird im Vishnupurana weiter vertieft und findet seine endgültige Form im Bhagvata Purana (ca. 10. Jahrhundert). Im Bhagvat Gita war der Krishna noch eine übermächtige Lehrgestalt, die sich dem Arjuna als Lehrgestalt offenbart. Der Anblick ist aber so überwältigend, dass Arjuna sie anfleht, wieder die vertraute menschliche, wenn auch vierarmige Gestalt als freundlicher Gott anzunehmen (Gita 11.9–51). Im Harivamsha tritt bereits eine veränderte Beziehung zwischen Gottheit und Mensch auf. Der jugendliche Krishna weckt die Liebe und strahlt das Glück aus. Der Krishnakult behielt stets eine gewisse Eigenständigkeit vor dem Kult des großen Vishnutempel. Besondere Merkmale sind Gesang und Tanz, die Erzählung von Mythen und Legenden und das häusliche Ritual. Obwohl sich die Verehrer Krishnas weiterhin als Vishnuiten bezeichnen, hat sich die alte monotheistische Krishnaverehrung weitestgehend von den Vishnu-Religionen entfernt. Besonders in Nordindien ist die Verehrung Krishnas zur dominanten Religion geworden. Ramabhakti Neben dem Mahabharata ist das dem Dichter Valmiki zugeschriebene Ramayana das zweite indische Nationalepos. Es dürfte im 2. Jahrhundert n. Chr. seine bekannte Form erreicht haben, als die Sage um das erste und letzte Buch ergänzt wurde. Nur in diesen beiden Büchern wird Rama als göttliches Wesen, als Inkarnation von Vishnu verstanden, wohingegen die anderen Bücher Rama als menschlichen Helden darstellen. Das Ramayana erzählt die Geschichte des Prinzen Rama aus dem Königreich Kosala, der vom Hof seines Vaters Dasharatha in die Waldeinsamkeit verbannt wird und später Ravana, den Fürsten der Dämonen auf Lanka, besiegt. Rama wurde zum Ideal des Königtums, mit Leitsätzen wie Treue, Gerechtigkeit Unbesiegbarkeit und Vorbild für die Untertanen. Dass er den Bogen Shivas nicht nur zu spannen vermochte, sondern mit Leichtigkeit zerbrach, zeigte ihn als Inkarnation Vishnus in einer gerade erwachenden Rivalität zweier Religionen als den überlegenen. Madhva Madhva, ein Brahmane aus Udupi begründete im 13. Jahrhundert mit der Dvaita-Schule eine weitere vishnuitische Konfession mit einer dualistischen Auslegung des Vedanta. Vishnu ist mit der höchsten Vollkommenheiten ausgestattet, von denen sich der Mensch keine zureichende Vorstellung machen kann. Die Linie der Madhva-Gurus, deren Erster er war, besteht seit 700 Jahren noch fort. Ramanuja und der Shri-Vishnuismus Seit dem 6./7. Jahrhundert entstanden sogenannte Bhakti-Bewegungen, die besonders die emotionale Hinwendung zu einem personalen Gott betonten und so besonders gegen die Macht der Tempel und Priester Stellung bezogen. Ziel der Erlösung ist es, zur Gottheit zu gelangen, ihre Nähe zu spüren, sie anzuschauen und zu preisen. Eine der großen vishnuitischen Bhakti-Bewegungen sind die Shri-Vaishnavas. Ramanuja (ca. 1050–1137) begründete diese Theologie als Synthese aus vier Quellen: dem Vedanta der Upanishaden und Brahmasutras, den Lehren der Bhagwad Gita, den vereinten Traditionen der Vaikhanasas und des Pancaratra sowie der Bhakti-Religiosität des Alvars. Die Bezeichnung Shri-Vishnuismus kommt daher, dass die Göttin Shri, die Gemahlin Vishnus, eine zentrale Rolle bei der Erlösung spielt: „Shri-Laksmi nämlich, die als Essenz der Gnade Gottes gilt, ist die Mittlerin zwischen dem sündigen Menschen und Gott, sie ist es, die seine Sünden tilgt und ihn hinführt in die Gegenwart des Herrn.“ Für die Gottheit verwendet Ramanuja auch die Bezeichnung Brahman. Das Brahman hat sowohl einen persönlichen als auch einen unpersönlichen Aspekt, wobei der persönliche der wesentliche ist. Insoweit Brahman Person ist, wird dafür (unter anderem) auch die Bezeichnung Vishnu verwendet. Nachdrücklich wendet sich Ramanuja gegen die Behauptung der radikalen Monisten, das Brahman sei eigenschaftslos. Er will nur üble Eigenschaften ausschließen und schreibt der Gottheit eine Fülle von guten Eigenschaften zu. Die Lehre wird als „Einheit des Verschiedenen“ bezeichnet: „Gott (das personhafte Brahman) ist lenkend und erkennend in der Welt und allen ihren belebten Teilen anwesend wie die Seele im Körper. Seine Gegenwart ist eine tätige, aber auch eine wissende und liebende. Er ist ein Freund in unserem Herzen, der größer ist als wir.“ Ramanuja lehnte die Lehre vom Karma grundsätzlich ab. Vielmehr hängen die Früchte unserer Taten davon ab, ob sie dem Höchsten Wesen gefallen oder nicht. Der Herr bestimmt, welche Taten förderlich sind und welche nicht. Dies offenbart sich im Gewissen, also der Stimme Gottes, und in den Schriften, die den Dharma lehren. Als innerer Kontrolleur (antaryamin) ist er in ihnen vorhanden, um Zustimmung (anumati) zu geben oder abzulehnen. Shivaismus Rudra und die Ursprünge des Shivaismus Der Vorläufer des Shiva war vermutlich Rudra, der im Veda als gefährlicher, Krankheit und Tod bringender Gott bekannt war. Die zerstörerische Gottheit wird in besänftigender Absicht euphemisch Shiva, „der Freundliche“ oder Shankara, „der Wohltätige“ genannt. Weitere Bezeichnungen sind Hara, „der Hinwegraffer“, und Pashupati, „Herr der Tiere“. Sein Kult hatte seine Ursprünge außerhalb der arischen Schicht, in einer Bevölkerungsgruppe, die an den Rand der arischen Besiedlungen in die Wälder und Berghänge des Nordens verdrängt worden war. Diese Kirata genannten Stämme wurden als Räuber gefürchtet. So wird auch Rudra im Yajurveda (16, 20–21) bereits als Herr der Diebe und Räuber bezeichnet. Entsprechend der verbreiteten Anschauung, dass der Bringer des Übels seine gefürchtete Aktivität auch einstellen und das Übel abwenden kann, kann er auch ein in höchstem Maße ein hilfreicher, friedlicher und segnender Gott sein. Seine heilsamen Arzneien können Mensch und Vieh retten. Auch der Phallus, das wichtigste Symbol für den Kult des Shiva, zeigt diese Ambivalenz, indem seine Zeugungskraft auch den Fortbestand des Lebens sichert. Erst mit der Stadtentwicklung (7.–5. Jahrhundert v. Chr.) erreichte die nicht-arische Bevölkerungsschicht auch im religiösen Bereich ein größeres Gewicht. Die brahmanische Shiva-Theologie entstand nach derjenigen des Vishnu ebenfalls in den Priesterkreisen des Yajurveda und übernahm von ihr wichtige Aspekte: „Das betrifft das gesamte, aus den Upanishaden abgeleitete Theoretische Gebäude, die Gleichsetzung von Shiva mit Brahman und Purusha, die Einbeziehung des Samkhya und Yoga sowie die Verehrung des Gottes über ein Zusammenstellen und Preisen seiner Namen, Taten und Vollkommenheiten.“ Diese Priesterkreise brauchten offenbar eine neue Klientel, nachdem sich die Fürsten- und Kaufmannsschicht den Mönchsorden zugewandt hatten und große Teile Nordindiens unter Fremdherrschaft geraten waren. Damit einhergehend wurden mit der Aufzählung der hundert Namen Rudras und der shivaitischen Shvetashvatara Upanischad zwei wichtige Texte nachträglich in die Tradition des Yajurveda eingefügt. Die Pashupatas Die erste in der Literatur vorkommende shivaitische Gruppierung bildeten die Pashupatas. Diese werden auch nach ihrem wichtigsten Lehrer Lakulisha genannt, der am Ende des 2. Jahrhunderts nahe der Mündung des Flusses Narmada im heutigen Gujarat lebte. Nach Alain Daniélou war Lakulisha ein Ajivika, der prä-arische Kulte der Indus-Kultur wiederherstellt. Der Name Pashupata („Anhänger des Herrn der Seelen“) verdanken diese frühen Shivaiten „ihrer dualistischen Gegenüberstellung der individuellen, ewigen Seele (pashu, eigentlich das Haus- oder Opfertier) mit dem Herrn (pati), der allein in der Lage ist, die Fessel zu lösen, die den Menschen an die Materie bindet wie das Opfertier an den Opferpfahl“. Die puranische Mythologie zeigt Shiva als Vernichter von Dämonen, als Yogi, der im Himalaya tausendjährige Askese übt und als Zerstörer, der am Ende einer Weltperiode den großen Weltenbrand einleitet. Auf seiner Stirn befindet sich ein drittes Auge. Wenn Shiva diese Auge öffnet, schießt daraus eine feurige Glut, die alles augenblicklich verzehrt, worauf sie trifft. Im Unterschied zum weltbejahenden Vishnu ist Shiva ein asketischer und weltverneinender Erlösergott. Eine menschenfreundlichere Sicht des Gottes entwickelte sich in Südindien unter Einfluss der Bhakti-Bewegung. So erscheint er hier auch als Erfinder der Musik und des Tanzes und als Lehrer der Menschen. Shiva erhielt beträchtlichen Zuwachs an Macht, indem der Kriegsgott Skanda-Karttikeya als Sohn in seine Familie aufgenommen wurde und mit diesem wiederum weitere Kriegsgötter wie Vaishakha und Kumara identifiziert wurden. Als Gemahlin kam Parvati hinzu, die mit Durga, Kali und allen blutgierigen lokalen Göttinnen der Volkskulte gleichgesetzt wurde. Die Göttin wurde sogar als Teil Shivas einbezogen, so dass sich dieser in androgyner Form präsentierte, als „Herr, der zur Hälfte Weib ist“. Weiter kam der elefantenköpfige Gott Ganesha als Sohn in Shivas Familie und schließlich integrierte Shiva den Sonnengott in Gestalt des Martanda Bhairava. Dadurch konnte der Gott viele Anhänger auf sich ziehen und verschaffte den Herrschern ein wichtiges Potential. Kashmirischer Shivaismus Der kaschmirische Shivaismus ist eine monistische Lehre, in der die religiösen Texte (Agamas) als unmittelbarer Ausdruck des höchsten Gottes Shiva betrachtet werden. Er entstand während des 8. oder 9. Jahrhunderts n. Chr. in Kaschmir und machte bis zum Ende des 12. Jahrhunderts große Fortschritte, sowohl philosophisch als auch theologisch. Als transzendenter Monismus nahm er eine Dreiheit von geistigen Prinzipien an: Shiva, Shakti und Seele (anu). Diese Form des Shivaismus wird entsprechend auch Trika-Schule (Triade) genannt. Die Seele, die ursprünglich Shiva ähnlich ist, wird durch ihr anhaftenden materiellen Schmutz (mala) verdunkelt. Der Prozess der Befreiung aus diesem Zustand der Beschmutzung führt zur Wiedererkennung (pratyabhijna) der letztlich vollständigen Einheit der Seele mit Shiva. Shaiva Siddhanta Diese Tradition wurde ursprünglich in ganz Indien praktiziert, durch die muslimische Unterwerfung des Nordens wurde sie aber in den Süden gedrängt, wo sie mit der tamilischen Saiva-Bewegung verschmolz und in der Bhakti-Poesie der Nayanmars Ausdruck fand. Im Zentrum steht nicht ein theoretischer, sondern vielmehr ein emotional geprägter dualistischer Shivaismus. Er betont die Verschiedenheit von Gottheit und Seele. Nur diese garantiert das in der Bhakti-Beziehung erfahrbare höchste Glück: „Es gibt also neben Shiva eine Vielheit von unvergänglichen Seelen, die in erlöstem Zustand in der Anschauung Gottes verharren.“ Natha-Yogis Natha-Yoga ist eine Yoga-Lehre, die auf Gorakhnath zurückgeht. Natha-Yogis sind asketische Shivaiten und das Ziel dieser Yoga-Disziplin ist es, die höchste Realität, die Identität mit Shiva, zu erreichen. Die Bewegung der Natha-Yogis ging von Bengalen aus und breitete sich später auch nach Süden und Westen aus. Natha-Yogis praktizieren Hatha-Yoga und versuchen den Körper durch Yoga und Schulung der Willenskraft zu reinigen und letztendlich unsterblich zu werden. Auch Alchemie war unter den Natha-Yogis verbreitet. In dieser Schule werden „Vollendete“ (Siddhas) und bedeutende Lehrer als Gottheiten angesehen. Varashaivas Die Virashaivas, die ab dem 12. Jahrhundert entstanden sind, lösten sich vom brahmanischen Ritualismus los und lehnen jegliche Form von Kasten ab. Ebenso gibt es eine Gleichberechtigung von Männern und Frauen. Unter den Herrschern von Mysore wurde der Virashaivismus von 1350 bis 1610 Staatsreligion. Die Virashaivas führen mit sich eine Kapsel mit einem Shiva-Linga, weshalb sie auch Lingayats genannt werden. Shankara und die monistische Lehre der Upanishaden sind prägend, jedoch wird dies auf Shiva als höchstes Sein bezogen (Shiva als Brahman selbst). Monismus bedeutet, dass Shiva das einzige Sein darstellt, auch in Bezug auf die Schöpfung und die Seelen. Shiva-Brahman ist mit den Attributen Sat, Chid, Ananda ausgestattet, Sein, Bewusstsein, Seligkeit. Die Virashaivas praktizieren Shiva-Bhakti und Yoga, und Gurus sind besonders wichtig, ebenso Ahimsa, Vegetarismus und Formen der Abstinenz. Es wird angenommen, dass ein lauterer und gläubiger Lebenswandel dazu führt, dass man sich im Tod mit Shiva vereint. Von besonderer Bedeutung ist das Mantra 'Om Namah Shivai'. Shaktismus Der Shaktismus ist eine Form des Hinduismus, der sich auf die weiblichen Götter oder die Göttin bezieht. Diese sogenannte Shakti, die als weiblich gedachte Urkraft des Universums, hat in dieser Religionsform eine herausragende Bedeutung im Heilsgeschehen und im Weltprozess, in dem die männliche Gottheit nur durch ihre Energie, die Shakti ist, handelt. Der Shaktismus begann sich ab dem 6. oder 7. Jahrhundert als eigenständige Religion zu etablieren. Der älteste Text, der diese Entwicklung zeigt, ist das Devi Mahatmya, ein Preiselied auf die Göttin, das diese als mächtigstes handelndes Prinzip über alle Götter stellt. Religionsgeschichtlich stammt der Shaktismus vom Shivaismus ab. Seine Theologie weicht kaum von der des Shivaismus ab, nur die Wertung des obersten Prinzips wird vertauscht: Nicht Shiva, sondern die Shakti wird als höchstes Prinzip angesehen. Dies wird aus dem Shivaismus selbst begründet: Dort ist Shiva ein reiner Geist, der passiv ist, während seine Shakti als dessen aktives Prinzip gilt. So sehen Shaktas den Shiva als handlungsunfähig ohne seine Shakti und diese deshalb als den schöpferischen Aspekt des Göttlichen. Die Theologie der Shakta ist grundsätzlich monistisch und vom Vedanta geprägt, da Devi als die Manifestation des Brahman angesehen wird. Jedoch wird die Maya im Gegensatz zum Vedanta als bewusste Kraft angesehen, in der die verschiedenen Aspekte der Göttin erscheinen und diese wird auch als personale Gottheit angebetet. Unterschieden werden zwei Hauptformen des Shaktismus: Die Shri-Kula (Familie der Göttin Shri) sind hauptsächlich in Südindien vertreten, während die Kali-Kula (Familie der Göttin Kali) in Nord- und Ostindien stark verbreitet sind. Die Kali-Kula lehnt die brahmanische Tradition ab. Zur Verbreitung des Shaktismus hat sehr stark die indische Volksreligion beigetragen, in der die Verehrung weiblicher Gottheiten ohnehin vorherrscht. Glaubensrichtungen und Lehre Der Hinduismus kennt keine gemeinsame Gründerperson. Jede Glaubensrichtung hat eigene nur für sie verbindliche heilige Schriften: z. B. Vishnuiten das Bhagavatapurana, Shaktianhänger das Devi Mahatmya, ein puranisches Werk zur Verehrung der Göttin. Die Veden werden übergreifend von vielen Hindus als heilig angesehen. Entgegen dem ersten Anschein ist der Hinduismus keine polytheistische Religion. Viele westliche Religionswissenschaftler und Indologen bezeichnen ihn, obwohl der Begriff umstritten ist, als Henotheismus, da alle Götter – je nach individueller Glaubensausrichtung – Ausdruck des einen höchsten persönlichen Gottes oder auch der unpersönlichen Weltseele (Brahman) sein können. Obwohl der Hinduismus aus unterschiedlichen Strömungen besteht, gibt es Gemeinsamkeiten, die in den meisten Richtungen vorliegen, die als eine Reihe von Leitgedanken und Grundsätzen erscheinen. Hinduistische Lehren betrachten den Kosmos als geordnetes Ganzes, das vom Dharma, dem Weltgesetz, welches die natürliche und sittliche Ordnung darstellt, beherrscht wird. Dharma bedeutet Recht, Pflicht, Ordnung und bezieht sich darauf, dass jedes Wesen sich so zu verhalten hat, wie es seinem Platz in der Welt entspricht. Zyklen des Werdens und Vergehens (Kalpa) der Welt bilden eine andere wichtige Grundlage hinduistischer Traditionen. In diesen Zyklen gibt es keinen Schöpfungsanfang und keine endgültige Vernichtung des Universums und des Daseins. Andere allgemein verbreitete Konzepte sind Karma, Atman und Moksha. Zentrale Praktiken sind Bhakti und Pujas. Samskaras sind hinduistische Sakramente, welche die Übergänge zwischen den einzelnen Abschnitten des Lebenszyklus rituell gestalten. Von diesen gibt es ca. 40 und die drei wichtigsten sind Initiation, Hochzeitsriten und Totenriten. Zentren hinduistischer Religiosität sind neben dem eigenen Haus die Tempel. Einer der größten Tempelkomplexe und Pilgerzentren ist Tirumala Tirupati in Südindien. In Nordindien zieht die heilige Stadt Varanasi am Ganges immer wieder Unmengen von Pilgern an. Gottesbild Die verschiedenen hinduistischen Traditionen und Philosophien vertreten unterschiedliche Gottesbilder, Hauptrichtungen sind jedoch Shivaismus, Vishnuismus sowie Shaktismus, die Verehrung Gottes in weiblicher Form. Daneben gibt es auch die indische Volksreligion. Brahma, Shiva und Vishnu werden auch als Dreiheit (Trimurti) dargestellt. Die Verehrung von Shiva und Vishnu, jeweils in unzähligen verschiedenen Formen und Namen, ist weit verbreitet. Brahma dagegen ist nur noch in der Mythologie präsent, in der Verehrung spielt er fast keine Rolle mehr; seine Stelle nimmt seine Shakti ein, die Göttin Sarasvati. Daneben gibt es aber unzählige andere Manifestationen, z. B. den elefantenköpfigen Ganesha, der als Sohn von Shiva und Parvati gilt, sowie Hanuman, der Diener Ramas, der wiederum ein Avatar von Vishnu ist. Es gibt auch eine große Zahl weiblicher Gottheiten, die entweder als „Große Göttin“ (Mahadevi) autonom auftreten wie Durga oder als Gemahlinnen bzw. weibliche Seite der männlich gedachten Götter gelten, z. B. Sarasvati und Lakshmi. Die meisten Gläubigen gehen davon aus, dass die Anbetung eines jeden Gottes dem Anbeten des höchsten Göttlichen entspricht, da alle Erscheinungsweisen des Einen seien. Andere dagegen verehren das Höchste nur in einer Form, wie etwa viele der Anhänger Krishnas, und betrachten die anderen Götter als ihm untergeordnete Devas. Die Verehrung des Göttlichen in Bildern und Statuen ist weit verbreitet, jedoch lehnen viele Hindus, wie die Lingayats, die Verehrung in dieser Form strikt ab. Neben den Hauptgöttern gibt es noch unzählige andere Gottheiten, von denen viele nur lokal verehrt werden. Hinduistische Theologie Das Gottesbild des Hinduismus kennt sowohl Götter als auch mit dem monotheistischen Gottesbegriff vergleichbare Vorstellungen. Von den indogermanisch ererbten Grundzügen her bestehen Zusammenhänge, die auch den Begriff „Gott“ betreffen. Manche Strömungen des Hinduismus glauben an einen obersten Gott, benannt als Ishvara (wörtlich „der höchste Herr“). Es gibt auch ihm unterstellte Wesen, die Devas genannt werden. Sie können als Götter, Halbgötter, Engel, himmlische Wesen oder Geist angesehen werden und stehen zwischen dem Ishvara und den Menschen. Einer der wichtigsten Begriffe im Hinduismus ist das Brahman – der höchste kosmische Geist. Brahman ist die unbeschreibbare, unerschöpfliche, allwissende, allmächtige, nicht körperliche, allgegenwärtige, ursprüngliche, erste, ewige und absolute Kraft. Es ist ohne einen Anfang, ohne ein Ende, in allen Dingen enthalten und die Ursache, die Quelle und das Material aller bekannten Schöpfung, rational unfassbar und doch dem gesamten Universum immanent. Die Upanishaden beschreiben es als das Eine und unteilbare ewige Universalselbst, das in allem anwesend ist und in dem alle anwesend sind. Diese unpersönliche Vorstellung von Gott wird ergänzt oder ersetzt durch die Sichtweise auf einen persönlichen Gott, wie es in der Bhagavadgita geschieht. Hier wird der persönliche Gott, der Ishvara oder höchste Purusha, über die Welt der Erscheinungen und den „unbeweglichen“ Brahman gestellt. Nach Auffassung des Advaita Vedanta ist der Mensch in seinem innersten Wesenskern mit dem Brahman identisch. Dieser innere Wesenskern wird auch Atman genannt. Diese Identität kann prinzipiell von jedem Menschen erfahren bzw. erkannt werden. Advaita Vedanta (Nichtdualität) ist die Lehre Shankaras (788–820 n. Chr.), die auf diese Erkenntnis der Einheit zielt und die Erscheinungen der Welt als Maya bezeichnet. Nach Lehre des Vishishtadvaita (qualifizierter Monismus) von Ramanuja dagegen ist Gott alles was existiert, es besteht jedoch ein qualitativer Unterschied zwischen individueller Seele und höchstem Gott. Am anderen Ende des Spektrums steht die rein dualistische Philosophie des Dvaita Vedanta des Madhvas, die streng zwischen Seele und Gott unterscheidet (siehe Indische Philosophie). Die Theologie des Hinduismus ist nicht von der Philosophie getrennt, und so erscheinen die Saddarshana (Darshana Sanskrit, n., , , für Betrachtung, Beobachtung, Zusammentreffen, Philosophie; von drish sehen), die sechs klassischen Systeme der indischen Philosophie, auch als theologische Konzepte. Diese sind: Nyaya, Vaisheshika, Samkhya, Yoga, Purva Mimamsa und Vedanta. Heilige Schriften Schriften liegen im Hinduismus in einer großen Vielfalt vor. Hinduistische Schriften wurden sowohl auf Sanskrit als auch in allen anderen indischen Sprachen geschrieben. Neben schriftlichen Zeugnissen gibt es auch mündlich tradierte Texte. Diese Schriften und Texte haben unter anderem eine rituelle Funktion, enthalten religiöse Ideen und Konzepte, und viele von ihnen werden als heilig angesehen. Der Ausdruck heilige Schriften ist nicht hinduistisch und entstammt einer westlichen Terminologie. Die Schriften und oralen Texte, die als heilig angesehen werden, sind nicht einheitlich, sondern werden dadurch definiert, dass religiöse Gruppierungen diese unterschiedlichen Texte als heilig ansehen. Sowohl die Form der Texte als auch Inhalte und Verwendung unterscheiden sich dabei in den verschiedenen Gruppierungen. In Hinduismus gibt es unterschiedliche Klassifizierungen von Schriften. Das bedeutet, dass die Einordnung der Schriften unter bestimmte Kategorien nicht einheitlich ist. Zudem können auch viele Schriften nicht datiert werden. Viele Schriften wurden auch noch nicht ediert und Übersetzungen liegen oft nicht vor. Wiedergeburt und Erlösung Einige Gläubige gehen davon aus, dass Leben und Tod ein sich ständig wiederholender Kreislauf (Samsara) sind und glauben an eine Reinkarnation. Der Glaube an Wiedergeburt ist aber, im Gegensatz zum im Westen vorherrschenden Klischee, nicht Hauptbestandteil des Hinduismus und nur in einigen wenigen Strömungen vertreten. So gibt es im Ur-Hinduismus und den frühen südindischen Religionen kein derartiges Konzept. Es wird angenommen, dass die Idee von Wiedergeburt erst später im Norden Indiens entstand. Götter, Menschen und Tiere durchwandern nach hinduistischer Glaubensvorstellung in einem durch ewige Wiederkehr gekennzeichneten Kreislauf, Samsara, die Weltzeitalter, Yuga. Während des Lebens wird je nach Verhalten gutes oder schlechtes Karma angehäuft. Dieses Gesetz von Ursache und Wirkung von Handlungen beeinflusst nach hinduistischer Vorstellung zukünftige Reinkarnationen und die Erlösung (Moksha), das Aufgehen des Atman (das innewohnende Brahman). Es ist nur bedingt zu vergleichen mit der Seele, da die Seele etwas Individuelles (also bei jedem verschieden) und das Atman immer das Gleiche ist im „kosmischen Bewusstsein“ (Brahman). Die persönliche Erleuchtung ist der Endpunkt der Entwicklung des Geistes, und je nach Realisation des Suchenden kann diese, neben anderen Wegen, durch die klassischen drei Methoden erreicht werden: Bhakti-Yoga, die liebende Verehrung Gottes, Karma-Yoga, den Weg der Tat, sowie Jnana-Yoga, den Weg des Wissens. Oft zählt man als vierten Weg Raja-Yoga, den „Königsweg“ hinzu. In den frühen Schichten der vedischen Schriften war die Vorstellung präsent, dass nach dem Tod ein Ort der Belohnung oder Strafe bereitstand. Das entschied sich nicht nur an der persönlichen Lebensführung, sondern war stark von den priesterlichen Zeremonien und Opferriten abhängig. Erst in den ab etwa 800 v. Chr. niedergeschriebenen Upanishaden wurde die Lehre von der Reinkarnation und dem Karma entwickelt, die dem Atman (Sanskrit, n., आत्मन्, ), dem unsterblichen Wesenskern des Menschen, unterworfen ist. Eines der ältesten Zeugnisse dazu ist die Brihadāranyaka Upanishad. Jiva (Sanskrit: जीव jīva adj. u. m. lebend, lebendig; ein lebendiges Wesen; das Leben; das Lebensprinzip; der Lebensatem) bezeichnet die individuelle Seele, Individualseele. Jiva ist Atman, der sich mit den Upadhis (den begrenzenden Hüllen) identifiziert. In der Schrift der Taittiriya Upanishad (etwa vor 550 v. Chr.) (Sanskrit: तैत्तिरियोपनिष्हद् taittirīyopaniṣhad f.), sie gehört zu den ältesten Upanishaden und wird dem schwarzen Yajurveda zugerechnet, werden drei Abschnitte aufgeführt, die wiederum in Unterabschnitte (Anuvakas) gegliedert sind. Sie gehen als erste Upanishad auf die Lehre der fünf Hüllen, Koshas ein. Der Name der vedischen Schrift bezieht sich wahrscheinlich auf den Lehrer Tittiri. Nach vedischer Ansicht besteht der Mensch nicht aus einem, sondern aus drei Körpern, Shariras (Sanskrit: शरीर śarīra n. fester Bestandteil des Körpers, Knochengerüst, Skelett; Leib, Körper). Diese wiederum umfassen die fünf Hüllen, Koshas. In den Vedanta-Schriften spricht man von den drei Körpern. Nach der Vedanta (Sanskrit, m., वेदान्त, ) sie heißt wörtlich übersetzt: „Ende des Veda“ d. h. der als Offenbarung verstandenen frühindischen Textüberlieferung (Veda Wissen). Der Begriff wurde erstmals in der Mundaka-Upanishad 3,2,6 und der Bhagavad-Gita, Vers 15,15 für die am Ende des vedischen Schrifttums stehenden Upanishaden verwendet. Sthula Sharira (Sanskrit: स्थूलशरीर sthūla-śarīra n. wörtlich grobstofflicher (Sthula) Körper (Sharira)), der physische Körper: Sukshma Sharira (Sanskrit: सूक्ष्मशरीर sūkṣma-śarīra n. wörtlich feinstofflicher (Sukshma) Körper (Sharira)) der astrale Körper Karana Sharira (Sanskrit: कारणशरीर kāraṇa-śarīra n. wörtlich Körper (Sharira) der Ursachen (Karana)), der kausale Körper Den Kreislauf der Wanderung, wurde vermittels der Lehre von den verschiedenen Leibhüllen, Koshas (Sanskrit: कोश kośa m. oder Sanskrit कोष koṣa Fass, Eimer; Kiste, Gefäß, Kasten, Truhe; Wagenkasten; Degenscheide; Behälter, Verschluss, Gehäuse; Vorratskammer, Schatzkammer; Schatz), meist sind es fünf, gefunden. Denn die Vorstellung eines Selbst, das von einem voll ausgebildeten Körper zu einem gleichen anderen wandern würde war nicht plausibel. Man entwickelte die Vorstellung, dass der Ātman, das Selbst, von verschiedenen Hüllen umgeben ist oder dass er selbst aus verschiedenen Schichten besteht. Bei der Seelenwanderung würden dementsprechend nur die äußeren Hüllen bzw. Schichten abgestreift, während das tiefere Selbst als solches bleibt. Der Mensch hat fünf Koshas (auch Panchakosha), die das Selbst, Atman, umhüllen und durch die das Selbst wirkt und Erfahrungen macht. Die fünf Koshas sind: Annamaya Kosha (Sanskrit: अन्नमयकोश annamayakośa m. wörtlich die aus Nahrung, Anna (Sanskrit: अन्न anna n. Essen, Speise, Nahrung, Korn, Reis) bestehende Maya Hülle (Kosha)) gröbste der fünf Koshas, die das höchste Selbst umgeben, vereinfacht der physische Körper; Pranamaya Kosha (Sanskrit: प्राणमयकोश prāṇamayakośa m. wörtlich die aus Energie, Prana) bestehende Maya Hülle. Im Pranamaya Kosha befinden sich auch die Chakras (Energiezentren) und Nadis (Energiekanäle), vereinfacht der Atem- oder Lebensenergie Körper; Manomaya Kosha (Sanskrit: मनोमयकोश manomayakośa m. wörtlich die aus Geist, Manas (Sanskrit: मनस् manas n.) der innere Sinn, das innere Organ, Denkorgan, Geist, Sinn, Verstand, Wille, Denken, Gedanke) bestehende Maya Hülle, der Mentalkörper; Vijnanamaya Kosha (Sanskrit: विज्ञानमयकोश vijñānamayakośa m.) wörtlich die aus Erkenntnis (Vijnana) bestehende Maya Hülle, vereinfacht der Körper der Weisheit; Anandamaya Kosha (Sanskrit: आनन्दमयकोश ānandamayakośa m.) wörtlich die aus Glückseligkeit (Ananda) bestehende Maya Hülle; die Wonnehülle, Hülle der Glückseligkeit, vereinfacht der Körper der Glückseligkeit. Der Reinkarnationslehre zufolge endet das Leben nicht mit dem Tod, sondern die Seele geht in eine neue Ebene des Seins ein. Der im innersten Wesen des Menschen ruhende unsterbliche Seelenkern (Atman), kann sich nach dem Tode des Körpers in einem neu in Erscheinung tretenden Wesen – einem Menschen, einem Tier oder auch einem Gott (Deva) – wiederverkörpern. In welcher Art von Wesen das Individuum wiedergeboren wird, hängt ab von den Taten in vorherigen Existenzen, woraus sein Karma resultiert. Das Karma ist verknüpft mit der Vorstellung einer sittlichen Weltordnung, dem Dharma, wodurch alle Handlungen gemäß dem Prinzip von Ursache und Wirkung die Voraussetzung für die künftige Wiedergeburt darstellen. Ein jedes Wesen besteht aufgrund seines in früheren Daseinsformen angesammelten Tatenpotenzials, welches das Gesamtergebnis einer jeden Existenz bewirkt. Folglich ist der Tod nicht der Abschluss des Lebens, sondern lediglich der Übergang zu einer neuen Daseinsform. Erhalten bleibt der durch den Atman begründete, ewige und unveränderliche Wesenskern des Menschen. Solange wir daran glauben, ein getrenntes und handelndes Individuum zu sein, sind wir gefangen im Kreislauf der Wiedergeburten, der Samsara genannt wird. Sobald wir die Identifizierung mit unserem Werkzeug, also dem Körper mit all seinen Funktionen zu denen auch das Denken und Fühlen gehört, transzendieren oder loslassen, sind wir aus diesem Kreislauf befreit und erkennen, wer wir wirklich sind. In der Advaita-Vedanta, wichtigster Vertreter war Shankara (ca. 788–820 n. Chr.), ist das wesentliches Merkmal die Wesensidentität von Atman (der individuelle Seele) und Brahman (der Weltseele), deshalb die Bezeichnung Advaita-Vedanta, 'Vedanta der Nichtzweiheit'. Durch das Überwinden von avidya (Unwissenheit) und maya (Illusion) kann der Mensch diese Wahrheit erkennen, das Selbst vom Nicht-Selbst befreien und Moksha (Erlösung, die Befreiung aus dem Kreislauf), aus dem Kreislauf des Samsara erlangen. Die Notwendigkeit des immer wiederholten Geborenwerdens wird von den Hindus als Unheil empfunden; man suchte nach Mitteln und Wegen der Befreiung (Moksha) aus dem unheilsamen Kreislauf. Vegetarische Nahrung und die heilige Kuh Möglicherweise auch als Reaktion auf den Vegetarismus im Buddhismus und auf die gestiegene Bedeutung von Ahimsa, der Gewaltlosigkeit, forderten die hinduistischen Schriften verstärkt den Verzicht auf Fleischverzehr. In vedischen Zeiten waren die Lebensumstände noch völlig anders. In einigen Schriften gibt es Hinweise, dass Fleisch, selbst Rindfleisch, gegessen wurde, wobei es sich aber stets um das Fleisch von Opfertieren gehandelt haben dürfte. Allgemeiner Vegetarismus ist für Hindus weder eine Forderung noch ein Dogma, jedoch wird die vegetarische Lebensweise als die ethisch höhere angesehen, da Fleisch ein Produkt der Tötung ist und nicht sattvic (rein). Vegetarier sind in allen Bevölkerungsschichten zu finden, besonders wird der Verzicht von Brahmanen erwartet. Prinzipiell lehnen aber fast alle Hindus den Genuss von Rindfleisch ab. Nach dem Zensus von 2004 sind etwa 25 % der indischen Bevölkerung Vegetarier. Dabei gibt es allerdings große Schwankungen zwischen den einzelnen Bundesstaaten; so ernähren sich etwa 69 % der Einwohner in Gujarat und 60 % in Rajasthan vegetarisch, dagegen in Tamil Nadu nur 21 %. In der indischen Mythologie finden sich vielfältige Bezüge zur Kuh (Go). Von Krishna wird gesagt, er sei einerseits ein Govinda (Kuhhirte) und andererseits ein Gopala (Beschützer der Kühe). Seine Gefährtin Radha ist eine Gopi (Hirtenmädchen), Shivas Reittier ist der Bulle Nandi. Siegel aus vergangenen indischen Kulturen (Indus-Kultur) lassen darauf schließen, dass Kühe schon vor mehr als viertausend Jahren einen besonders hohen Stellenwert hatten. Die wichtigsten Wurzeln für die Verehrung sind jedoch die Veden, in denen immer wieder das Bild der Heiligen Kuh als göttliches Wesen auftaucht. Trotzdem wurden Rinder in Indien zur Zeit der Jungsteinzeit uneingeschränkt geopfert und verspeist. Warum und wann sich dies änderte, ist unklar. Der Kulturanthropologe Marvin Harris führt die Tatsache auf veränderte ökonomische Rahmenbedingungen zurück: Mit dem Aufkommen des Staates und einer größeren Bevölkerungsdichte konnten nicht mehr genügend Rinder gezüchtet werden, um sowohl als fleischliche Nahrungsquelle als auch als Zugtiere genutzt zu werden. Möglicherweise war das einer der Gründe, dass die Tötung von Kühen auch als Opfertier für Hindus ein absolutes Tabu und ihr Fleisch nicht mehr gegessen wurde. Interessanterweise waren es gerade die früher für die rituelle Rinderschlachtung verantwortlichen Brahmanen, die sich später am stärksten für den Schutz der Rinder einsetzten. Ethik und Soziologie des Hinduismus Kastensystem Oft wird der Hinduismus mit der Kastenordnung in Verbindung gesetzt. Demnach spielt die rituelle Reinheit eine wichtige Rolle in der sozialen Hierarchie. Grundsatz der Kastenordnung ist, dass die Lebewesen von Geburt an nach Aufgaben, Rechten, Pflichten und Fähigkeiten streng voneinander getrennt sind. Heute wird die Kastenordnung zunehmend als ein umfassendes System zur sozialen Unterdrückung gesehen, das religiös begründet wird. Nach dem Ethnologen Louis Dumont ergibt sich die Zugehörigkeit zum Hinduismus aus der Geburt in die Kastengesellschaft. Allerdings herrscht keine Einigkeit über Wesen, Umfang und Erscheinungsformen der Kasten. Laut David Mandelbaum sei der Begriff für so viele soziale Systeme verwendet worden, dass es fast besser sei, auf ihn ganz zu verzichten. Axel Michaels äußert sich ebenso kritisch zur Verwendung des Begriffs „Kaste“, da dieser nicht indischen Ursprungs ist. Declan Quigley weist darauf hin, dass Kastenhierarchien regional und lokal ganz unterschiedlich konstruiert und oft umkämpft sind. Des Weiteren bieten zahlreiche Bhakti-Traditionen die Verwirklichung religiöser Ziele zum Teil auch unabhängig von Kaste und Geschlecht. In den zahlreichen ethnographischen Werken entwickelten die europäischen Kolonialbeamten eine „Sammelwut“, „mit der Menschen fast wie Schmetterlinge archiviert wurden“. Die klassische Ständeordnung gliedert sich hierarchisch und arbeitsteilig in vier „Hauptkasten“, sogenannte Varnas (wörtlich „Farben“), von denen jede mit einer Farbe assoziiert wird: Brahmanen: Farbe Weiß; oberste Kaste; Priester und Gelehrte Kshatriyas: Farbe Rot; die Kriegerkaste; Krieger, Aristokraten, Landbesitzer Vaishyas: Farbe Gelb; Händler, Geschäftsleute, Handwerker Shudras: Farbe Schwarz; Diener, Knechte, Tagelöhner Die Hierarchie wird durch den Wert der rituellen „Reinheit“ strukturiert. Dadurch unterscheidet sie sich beispielsweise von der mittelalterlichen Ständegesellschaft, die die ökonomischen und politischen Machtverhältnisse abbildete. Das vierteilige Varna-System erhielt seine mythisch-metaphorische Formulierung im Purusa-Hymnus des Rigveda (Rv 10.90). In diesem wird beschrieben, wie dem kosmischen Urmenschen die Varnas als Körperteile zugeordnet werden: Unterhalb der vier Hauptkasten sind die Dalits, die auch als „Unberührbare“ bezeichnet werden, woraus eine gewisse Diskriminierung und Ausgrenzung resultiert. Diese führen „unreine“ Tätigkeiten aus, damit die Kastengesellschaft ihre Werte der Reinheit aufrechterhalten kann. So sind sie es, die üblicherweise Fäkalien, Müll, Überreste verstorbener Tiere und Leichen entsorgen bzw. beseitigen. Über den Grad der Diskriminierung gibt es in der Forschung verschiedene Positionen. Zwar ist in der indischen Verfassung ein Verbot von Praktiken der „Unberührbarkeit“ festgeschrieben, dies hat die Diskriminierung jedoch nicht beseitigt, was sich beispielsweise im Ausschluss aus Dorfgemeinschaften oder diskriminierenden Kleidervorschriften zeigt. Die Varnas gliedern sich in Hunderte von Jatis auf. Der Begriff leitet sich ab aus dem Begriff jan für „geboren werden“. Dies weist auf die Hauptbedeutung von Jati hin: „Geburtsgruppe“, auch im Sinne von Großfamilie oder Clan. Jatis sind somit die soziale und familiäre Dimension des Kastensystems und erinnern in gewissem Maße an die mittelalterliche Ständeordnung in Europa. Sie sind manchmal – aber nicht immer – mit einer beruflichen Tätigkeit verbunden. Viele Autoren verwenden Jati im Sinne von „Subkaste“ und meinen damit eine Kategorie wie Kaste, aber in einem ethnisch, sprachlich, regional und religiös eingegrenzten Sinne. Rolle der Frau Die Rolle der Frau im Hinduismus hat über die Jahrhunderte und Jahrtausende eine kontinuierliche Entwicklung durchgemacht und muss immer auch im Zusammenhang mit den jeweiligen Lebensumständen sowie den verschiedenen hinduistischen Kulturen gesehen werden. Einerseits verboten einige Gesetzgeber den Frauen das Lesen der Veden, einige Hymnen des Rigveda jedoch wurden von Frauen geschrieben, und in der Brhadaranyaka Upanishad finden wir einen Dialog zwischen der gelehrten Tochter von Vachaknu Gargi und Yajnavalkya. Aus dieser Zeit ist auch die Sitte des Swayamvara überliefert, wörtlich „Selbstwahl“: Frauen am Königshof wurden nicht einfach verheiratet, sondern wählten den Bräutigam aus den in Frage kommenden Kandidaten selbst aus. Ein zentrales Ritual, das Upanayana (Initiationsritus für Knaben), ist von frühester Zeit an jedoch nur männlichen Angehörigen der oberen Kasten vorbehalten. Es ist diese kultische Handlung, die einen Menschen zum Dvijati werden lässt, zum „Zweimalgeborenen“. Nach der natürlichen Geburt stellt das Upanayana die kulturelle Geburt dar. Eine wichtige Rolle im hinduistischen Frauenbild verkörpert Sita, die Gattin Ramas aus dem großen Epos Ramayana. Das Bild der opferbereiten Gattin stellt für viele noch das Modell der idealen Frau dar. Sita wurde dadurch zum wichtigen Thema im indischen Feminismus und in der modernen indischen Literatur. Aus einer modernen Sicht haben Frauen in hinduistischen Traditionen zu wenig Rechte. Eine der Hauptaufgaben der Frau im Hinduismus ist die Mutterschaft. Jedes Stadium der Schwangerschaft bis hin zur Geburt wird begleitet von sakramentalen Riten zum Schutz und zu körperlichem und geistigem Wohlergehen von Mutter und Kind. Früher sollten Frauen möglichst viele Söhne bekommen, da diese die Sicherheit und das Überleben der gesamten Familie garantieren konnten. Obwohl Hindus die Töchter nicht generell geringer schätzen, gelten sie doch zu oft auch noch in manchen Familien als Belastung, da sie bei ihrer Hochzeit die Mitgift mitbringen müssen und die Familie durch Mitgiftzahlungen für zu viele Töchter auch verarmen kann. Dieses Problem führt zu einer hohen Abtreibungsrate bei weiblichen Föten. Viele moderne Hindus, besonders in den Städten, freunden sich allmählich mit dem Gedanken an, dass auch eine Tochter ihre Eltern im Alter versorgen kann. Familie Normalerweise ist in der traditionellen Familie der Vater das Oberhaupt. Er trifft alle wichtigen Entscheidungen, beispielsweise über Geldangelegenheiten, Hochzeit usw. – zumindest soll es nach außen hin so aussehen. Traditionellerweise ist die Mutter-Sohn-Bindung die engste im indischen Familiensystem. Meist wohnt der Sohn mit seiner Ehefrau im Haus der Eltern, wenn die räumlichen Verhältnisse dies zulassen. Bei den Töchtern jedoch ist auch noch meist von vorneherein klar, dass sie das Haus verlassen werden, um in die Familie des Ehemannes zu ziehen. Dies ist nicht einfach für die junge Ehefrau. Sie ist diejenige in der Familie mit den wenigsten Rechten, ihr Status verbessert sich oft erst, wenn sie Kinder (am besten einen Sohn) bekommt. Ältere Frauen, d. h. Schwiegermütter, haben oftmals einen sehr soliden Status und sind mit genügend Autorität ausgestattet. Eine soziale Rolle, die im Hinduismus traditionell nicht sehr angesehen ist, ist die der unverheirateten Frau. Ledige Frauen wohnen in Indien meist nicht alleine, sondern weiter im Haushalt der Eltern. Das Verhältnis zwischen Ehegatten ist in erster Linie von Pragmatismus geprägt. Nach wie vor sucht oft die Familie eine Person als Ehemann oder Ehefrau aus, die in Bezug auf Bildung und Status gut passt (arrangierte Ehe). Die Liebe kommt später, sagt man in Indien. Das sei wie ein Topf Wasser, den man auf den Herd stellt und der erst später zu kochen anfängt. Liebesheiraten werden jedoch mit der Zeit üblicher. Das Ideal ist ein vierstufiges Lebensmodell (Ashrama-System), das vorsieht, nach den Schülerjahren eine Familie zu gründen und erst nachdem die Kinder erwachsen geworden sind sich zurückzuziehen und sich intensiv religiösen Studien und der eigenen Erlösung zu widmen. Heilige Orte Die sieben heiligen Orte sind Ayodhya, der Geburtsort des Gottes Rama, Dvaraka, Hauptstadt von Krishna, Haridwar, ein Quellplateau des Ganges, Kanchipuram mit dem Großen Tempel von Shiva, Mathura, der Geburtsort des Gottes Krishna, sowie Ujjain und Varanasi. In Ujjain und Haridwar findet dabei auch Kumbh Mela statt. Siehe auch Glossar hinduistischer Begriffe Hinduismus in Deutschland Hinduismus in Österreich Hinduismus in der Schweiz Hinduismus in den Niederlanden Liste der Gestalten der indischen Mythologie Literatur Überblicksliteratur Wendy Doniger: On Hinduism. Oxford University Press, New York 2014, ISBN 978-0-19-936007-9. Wendy Doniger: The Hindus. An Alternative History. The Penguin Press, London 2009, ISBN 978-1-59420-205-6. Helmuth von Glasenapp: Der Hinduismus – Religion und Gesellschaft im heutigen Indien. München 1922. Jan Gonda: Die Religionen Indiens I, Veda und älterer Hinduismus. In: Christel Matthias Schröder (Hrsg.): Die Religionen der Menschheit. Band 12. 2. Auflage. Kohlhammer, Stuttgart 1978. Jan Gonda: Die Religionen Indiens II, Der jüngere Hinduismus. In: Christel Matthias Schröder (Hrsg.): Die Religionen der Menschheit. Band 11. Kohlhammer, Stuttgart 1963. Kim Knott: Der Hinduismus – Eine kurze Einführung. Reclam, Ditzingen 2000, ISBN 3-15-018078-3. Angelika Malinar: Hinduismus. (Reihe Studium Religionen). Vandenhoeck & Ruprecht, Göttingen 2009, ISBN 978-3-8252-3197-2. Angelika Malinar: Hinduismus Reader. Studium Religionen. Göttingen, 2009. Axel Michaels: Der Hinduismus: Geschichte und Gegenwart. Beck, München 1998. Stephan Schlensog: Der Hinduismus. Glaube, Geschichte, Ethos. Mit einem Vorwort von Hans Küng. Piper Verlag, München 2006, ISBN 3-492-04850-1. Hans Wolfgang Schumann: Die großen Götter Indiens. Grundzüge von Hinduismus und Buddhismus. (= Diederichs Gelbe Reihe). Hugendubel, Kreuzlingen/ München 2004, ISBN 3-89631-429-7. Heinrich von Stietencron: Der Hinduismus. (= Beck’sche Reihe Wissen. 2158). 2. Auflage. C.H. Beck, München 2006, ISBN 3-406-44758-9. Heinrich Zimmer: Philosophie und Religion Indiens. Suhrkamp, Frankfurt am Main 2001, ISBN 3-518-27626-3. Heinrich Zimmer: Indische Mythen und Symbole. Schlüssel zur Formenwelt des Göttlichen. Diederichs, München 1993, ISBN 3-424-00693-9. Texte des modernen Hinduismus Mohandas Karamchand Gandhi: Jung Indien: Aufsätze aus den Jahren 1919 bis 1922. Hrsg. von Madeleine & Romain Rolland. Rotapfel-Verlag, Zürich 1924. Ram Mohan Roy: Das brahmanische Magazin oder der Missionar und der Brahmane. Eine Verteidigung der Hindureligion gegen die Angriffe der christlichen Missionare (1821). Deutsch in: Angelika Malinar: Hinduismus Reader. Studium Religionen. S. 98–101. (Aus dem Englischen übersetzt von Malinar) aus: Ram Mohan Roy: The English works of Raja Rammohun Roy. Part I. Edited by K. Nag, D. Murman, Calcutta 1945, S. 137–138. Swami Vivekananda: Vedanta. Der Ozean der Weisheit. Eine Einführung in die spirituellen Lehren und die Grundlagen der Praxis des geistigen Yoga in der indischen Vedanta-Tradition. Basel 1989. Weblinks Gandhis Religion – Der Hinduismus, aus der Radiowissen-Themenreihe „Weltreligionen“ (Audio) Axel Michaels: Kommentierte Bibliographie zum Hinduismus, Heidelberg 2007. Einzelnachweise Weltreligion
Q9089
1,900.264573
5813859
https://de.wikipedia.org/wiki/Festwertspeicher
Festwertspeicher
Ein Festwertspeicher oder Nur-Lese-Speicher (, ROM) ist ein Datenspeicher, auf dem im normalen Betrieb nur lesend zugegriffen werden kann, nicht schreibend, und der nicht flüchtig ist. Das heißt: Er hält seine Daten auch im stromlosen Zustand. Er wird verwendet bei eingebetteten Systemen mit unveränderbarer Software, mittlerweile wird jedoch meist stattdessen Flash-Speicher eingebaut, dessen Inhalt nachträglich korrigierbar/änderbar ist. Auf PCs fand sich beispielsweise ursprünglich das „fest verdrahtete“ BIOS in einem ROM, das nur durch Austausch beziehungsweise externe Umprogrammierung geändert werden konnte. Vor der Entwicklung der Halbleiterspeicher wurden Festwertspeicher beispielsweise mittels Core Rope Memory realisiert, bei dem der Inhalt durch die Art der Verdrahtung festgelegt wird. Dieses verwendet Ringkerne. Übersicht Ursprünglich wurden auch Halbleiter-ROMs bei der Fertigung „fest verdrahtet“. Da diese Verdrahtung mit einer „Maske“ (einer Art Filmnegativ) auf den Chip direkt aufbelichtet wird, spricht man hierbei von einem maskenprogrammierten ROM oder kurz Masken-ROM. Da dieses Verfahren nur in Großfertigung wirtschaftlich ist, wurde eine – ständig wachsende – Familie weiterer Speicherbausteine entwickelt, die auch nach der Fertigung mit Informationen befüllt werden können, die sogenannten PROMs (Programmable ROM). Das Einschreiben von Daten in ein ROM wird als Programmierung des Bausteins bezeichnet und ist nicht mit den Schreibzugriffen in einem Schreib-Lese-Speicher (Random Access Memory, Festplatte) vergleichbar. Zu unterscheiden ist zwischen Bausteinen mit reversibler und irreversibler Programmierung. ROM ermöglicht allerdings wie RAM einen wahlfreien Zugriff auf die Daten. Funktionsweise Ein ROM-Chip hat eine Anzahl n Adresspins, an denen die abfragende Logik (z. B. ein Prozessor) die Adresse anlegt, von der im ROM-Chip er lesen möchte. Zusätzlich besitzt der ROM-Chip m Datenausgangs-Pins, an denen er dann den Wert ausgibt, der in ihm an der angeforderten Adresse eingebrannt ist. Viele ROM-Chips besitzen zusätzlich noch einen einzelnen Pin namens „Chip-Select“, der angibt, ob der ROM-Chip gemeint ist, oder die anliegende Adresse für einen anderen (ROM-)Chip gemeint ist, der an denselben Adressleitungen angeschlossen ist. Beispiel: Ein 64-kB-ROM kann an 216 = 65536 Adressen, also Adresse 0..65535, jeweils 1 Byte = 8 Bit speichern. Es besitzt also 16 Adress-Eingangsleitungen und 8 Daten-Ausgangsleitungen. Rechen-ROM Anstatt eines Programms kann ein ROM-Chip auch nur Daten enthalten. In einer speziellen Form davon kann ein ROM-Chip auch direkt eine Hardware-Funktion „berechnen“: Werden seine Adresspins nicht als Adresse, sondern als „Eingabewert“ betrachtet, so kann zu jedem Eingabewert ein Ausgabewert eingebrannt werden, den der ROM-Chip später bei dieser Eingabe zurückliefert. Somit kann ein ROM-Chip jegliche Boolesche Funktion („Logikfunktion“) abbilden, die maximal n Eingangsbits und m Ausgangsbits hat. Varianten Inzwischen gibt es eine recht große Anzahl verschiedener Arten von ROM: Masken-ROM – nur zum Fertigungszeitpunkt programmierbar, die preisgünstigste Version bei Massenfertigung Programmable Read-Only Memory (PROM), einmalig programmierbar Erasable Programmable Read-Only Memory (EPROM), löschbar mit UV-Licht Electrically Erasable Programmable Read-Only Memory (EEPROM), elektrisch löschbar Als Ersatz für das ROM wird heute oft Flash-Speicher verwendet – als FLASH-EEPROM auch mit wahlfreier Adressierung erhältlich. Weblinks Computer History Museum: http://www.computerhistory.org/semiconductor/timeline/1965-ROM.html Einzelnachweise Speichertechnologie Speichermodul
Q160710
124.519483
17946
https://de.wikipedia.org/wiki/Brille
Brille
Eine Brille (auch bezeichnet als Augenglas oder Augengläser) ist eine seit dem 13. Jahrhundert vor den Augen getragene Konstruktion, die in den überwiegenden Fällen als optisches Hilfsmittel Fehlsichtigkeiten und Stellungsfehler der Augen korrigiert und als solche Korrektionsbrille oder Korrekturbrille genannt wird. Zudem werden Brillen zum Schutz vor äußeren Einwirkungen, Verletzungen oder Überreizung verwendet sowie zu therapeutischen, diagnostischen und experimentellen Zwecken. Auch als modisches Accessoire ist die Brille von Bedeutung. Überblick Eine Brille besteht aus Brillengläsern, die entweder als geschliffene Linsen eine lichtbrechende Wirkung besitzen und als Sehhilfe dienen, oder aus gegossenen Scheiben oder Gläsern unterschiedlichen Materials, die verschiedene Zwecke erfüllen können. Des Weiteren verfügt sie zur Stabilisierung und Fixierung der Brillengläser über eine Fassung, die aus unterschiedlichen Materialien, Größen und Formen bestehen kann, sowie aus einer Haltevorrichtung (Ohrbügel, Griff oder Hinter-Kopf-Halteband). Die heutige Brillenherstellung in industrialisierten Ländern erfolgt auf der Grundlage von Normen und Richtlinien. Häufig stellen Augenoptiker das Endprodukt aus industriell oder handwerklich vorgefertigten Komponenten her und liefern die fertige Brille an den Kunden aus. Zuvor wird durch Sehtests und technisch-optische Hilfsmittel die notwendige Glasstärke ermittelt, meist beim Augenoptiker oder beim Augenarzt. In Deutschland benötigen etwa 64 Prozent der Personen über 16 Jahre und etwa 15 Prozent der Kinder eine Korrektionsbrille. Die Korrektionsbrille wurde als Lesebrille um 1285 in Italien erfunden, jedoch sind vergrößernde optische Hilfsmittel bereits seit der Antike bekannt. Etymologie Die Bezeichnung Brille leitet sich vom spätmittelhochdeutschen Wort berille (Pluralform zu griechisch-lateinisch beryllus, lateinisch auch berillus) ab. Dieses wiederum wird zurückgeführt auf das Mineral Beryll. Aus diesem Halbedelstein wurden Sichtfenster für Reliquiare und Monstranzen geschliffen. Um 1300 fertigte man die Linsen der Brillen aus geschliffenen Halbedelsteinen. Der Name des Schmucksteins Beryll (lateinische Form beryllus; er ist auch Namensgeber für das darin enthaltene Element Beryllium) wurde im Mittelalter als Oberbegriff für alle klaren Kristalle verwendet, auch wenn sie aus anderem Material wie z. B. Bergkristall bestanden. 1303 wurde der Ausdruck „oculus berillius“ von Bernhard von Gordon in Montpellier verwendet. Albrecht verlieh dem berillus im Jüngeren Titurel eine erhöhte symbolische Bedeutung. In der um 1270 entstandenen ausgedehnten Gralsdichtung ist Parille der Name für einen der Söhne von Senabor. Bei der Aufzählung der „kinde und kindes kint“ vom Stamm Kapadoze wird der Name erwähnt: Durch die Wahl des Namens wird der Lebensweg des „Parille“ verdeutlicht und seine Entwicklung aufgezeigt. Diese Strophe stellt das älteste Denkmal im deutschen Sprachraum dar, in dem die Brille (hier noch als Lesestein aus Bergkristall) genannt wird. Viele Strophen später greift Albrecht den Vergleich erneut auf: Das Herz ist also klar und rein wie ein „berillus“ und hat die Eigenschaft, die Tugenden wachsen zu lassen. Geschichte Vorläufer der Brille Laut Chrysippos soll Archimedes († 212 v. Chr.) die Brechungsgesetze von Linsen untersucht und einen am Kopf befestigten Kristall zur Sehkorrektur getragen haben. Seine Entdeckung fand in der Antike aber offenbar keine praktische Nachahmung. Kaiser Nero soll zwar die Gladiatorenkämpfe durch Gläser betrachtet haben, diese waren jedoch ohne brechende Wirkung. Sie dienten nur dazu, seine Augen vor der Sonneneinstrahlung zu schützen. Seneca der Jüngere schrieb im 1. Jahrhundert nach Christus: „Kleine und undeutliche Buchstaben erscheinen schärfer und größer, wenn man sie durch eine mit Wasser gefüllte Kugel betrachtet.“ Neue Ansätze lieferte das Buch Schatz der Optik des arabischen Mathematikers, Astronomen und Optikers Alhazen († ca. 1040), nachdem es um 1240 ins Lateinische übersetzt und in Klosterbibliotheken verfügbar wurde. Alhazen beschrieb die vergrößernde Wirkung eines Glaskugelsegments, des späteren Lesesteins, ohne jedoch seine Erkenntnis praktisch zu nutzen. Die lange Zeit unbeachtet gebliebenen Untersuchungen Alhazens, die handwerklichen Fertigkeiten schreibender Mönche und der rapide anwachsende Gebrauch der Schrift im städtischen Bereich kamen zusammen. Wohl in einem Kloster wurde der erste Lesestein aus Bergkristall geschliffen. Um die zweite Hälfte des 13. Jahrhunderts folgten Leseglas und Brille. Neben dem Schatz der Optik zeigte eine Bemerkung aus Die goldene Schmiede des mittelhochdeutschen Dichters Konrad von Würzburg (* 1220/1230 in Würzburg, † 1287 in Basel) eine mögliche Entwicklungsrichtung: „Er [der Kristall] hat in sich die große und gewaltige Art, […] sofern ihn jemand dünn schliffe und auf die Schrift halten wollte, der sähe durch ihn die kleinen Buchstaben größer scheinen.“ Erfindung der Brille Die als Sehhilfe für beide Augen auf die Nase gesetzte Lesebrille wurde Ende des 13. Jahrhunderts in Norditalien, möglicherweise in der Toskana, erfunden. Wichtige Vorarbeiten leistete Roger Bacon, der in seinem 1267 erschienenen Werk Opus maius wesentliche Erkenntnisse zur physikalischen Optik lieferte und glaubte, Kugelsegmente aus „Krystall“ oder Glas seien vorzügliche Hilfsmittel für Alters- oder Fehlsichtige. Salvino degli Armati galt lange als Erfinder der Brille, bis 1920 bekannt wurde, dass er selbst eine Erfindung ist. Auch der Arzt Petrus Hispanus, ab 1276 Papst Johannes XXI., wird heute als Erfinder in Betracht gezogen. Letztlich ist bis heute nicht geklärt, wer die Brille (etwa zwischen 1270 und 1290) erfunden hat. Der Dominikaner Giordano da Rivalto erwähnte die erst wenige Jahre zurückliegende Erfindung in einem Predigtmanuskript aus dem Jahr 1305 und teilte mit, dass der in Pisa tätige Dominikaner Alessandro della Spina um 1285 das Schleifen von Brillengläsern (ocularia) beherrscht hätte, aber auch mitgeteilt habe, dass der eigentliche Erfinder der Brille nicht genannt werden wolle. Um 1300 war die Brillenherstellung in Murano in der Lagune von Venedig bereits etabliert. So war etwa die Verwendung von unreinem Glas untersagt. Der Große Rat von Venedig nannte 1300, 1301 und 1319 lapides ad legendum („Lesesteine“) sowie vitreos ab oculis ad legendum („Lesegläser“). Arnaldus de Villanova erwähnt um 1310 in seinem Weinbuch in einem augenheilkundlichen Abschnitt das legere sine specillis („Lesen ohne Brille“). Die ersten Brillen, die in Europa vor 1300 aufkamen, hatten noch keine Bügel und besaßen konvex geschliffene Linsen, die sie nur für weit- oder alterssichtige Menschen geeignet machten. Während Mitte des 14. Jahrhunderts bereits Nahbrillen für altersichtige Menschen gebräuchlich wurden, sind laut Sasse wohl erst ab dem 16. Jahrhundert Konkavgläser als Hilfe für kurzsichtige Menschen allgemein verbreitet gewesen, und Zylindergläser wurden erst im 19. Jahrhundert hergestellt. Deren Vergrößerungseffekt wurde – zunächst allerdings nicht zum Lesen – schon lange ausgenutzt. Der Übergang zum Vergrößern von Schrift gilt als sehr naheliegend. Die älteste Darstellung einer Brille findet sich auf den Fresken des italienischen Malers Tommaso da Modena im Kapitelsaal von San Niccolo in Treviso. Sie sind um das Jahr 1352 entstanden. Mit viel Sinn für das Gegenständliche und für physiognomische Besonderheiten hat da Modena auf vierzig Fresken die Hauptvertreter des Dominikanerordens dargestellt. Bei dem Porträt des Kardinals von Rouen wird ein Einglas gezeigt, das der Dargestellte dicht an sein Auge geführt hat. Er liest damit in einem Buch, das er aufgeschlagen in seinen Händen hält. Auf dem Porträt des Kardinals Hugo von St. Cher ist eine Nietbrille dargestellt, die diesem fest auf der Nase sitzt. Der „Brillenapostel“ des Altars der Stadtkirche von Bad Wildungen, der 1403 von Conrad von Soest gemalt wurde, ist die früheste Darstellung einer Brille nördlich der Alpen. Der Brillenapostel ist zu einem Symbol der evangelischen Kirchengemeinde Bad Wildungens geworden und findet sich heute in ihrem Siegel wieder. Eine ältere Brillendarstellung findet sich auf dem Flügelaltar von Schloss Tirol (1370/72) im Tiroler Landesmuseum Ferdinandeum in Innsbruck. Am rechten Flügel der Sonntagsseite ist die unterste Darstellung dem Marientod gewidmet. Am Fußende sitzen zwei Apostel, von denen einer sich eine Nietbrille vor das Gesicht hält. Im Chor des Aachener Domes sind auch zwei frühe Brillenapostel zu sehen. Neben den beiden zentralen Statuen von Maria und Karl dem Großen an den inneren Chorpfeilern sind auf Konsolen unter Baldachinen die zwölf Apostel aufgestellt. Nach Vollendung der Chorhalle wurden die Sandsteinfiguren, deren Künstler nicht überliefert sind, in der Zeit von 1414 bis 1430 angebracht. Auf der Südseite befindet sich Thomas. Mit der rechten Hand hält er ein offenes Buch. Sein Attribut, das Winkelmaß, hängt in der Armbeuge und ist zwischen Brust und linken Unterarm geklemmt. Am Ledergürtel trägt Thomas ein Messer und ein Brillenetui. An der Nordseite des Chores steht Matthias. Seine Linke umfasst den langen Stiel der auf dem Boden abgestellten Hellebarde. Er blickt in ein aufgeschlagenes Buch. Die rechte Hand ist unter dem Tuch seines Mantels verborgen. Nur der Daumen ragt hervor und drückt von unten eine halb geöffnete Nietbrille gegen den Bucheinband. Brillenträger finden sich ebenfalls auf dem Altar von Friedrich Herlin in der Jakobskirche von Rothenburg ob der Tauber. Um 1466 geschaffen, zeigt er in der Predella Petrus mit Schlüsselbund und Buch. Seine Nietbrille hält der Apostel zum Lesen vor die Augen. In der Beschneidungsszene auf einem Seitenflügel des Altars hat der Maler dem Hohen Priester eine Brille auf die Nase gesetzt. Im Orient, wo Alhazen die Grundlagen der modernen Optik geschaffen hatte, waren wirkungsvolle Brillen wohl zunächst weniger verbreitet. So sagt Dschāmi als Erzähler seiner Geschichte von Salaman und Absal, dass er so schlecht sehe, dass nicht einmal „fränkische Gläser“ helfen würden. Die ältesten erhaltenen Brillen wurden 1953 im Kloster Wienhausen bei Celle gefunden. Die beiden Nietbrillen stammen aus dem 14. Jahrhundert und werden im Kloster aufbewahrt. Weiterentwicklung Die Möglichkeit, eine Kurzsichtigkeit mittels konkaven bzw. bikonkaven Zerstreuungslinsen zu korrigieren, ist seit dem 16. Jahrhundert bekannt, aber nicht vor 1525 bezeugt. Eine von ihm und Christian Scheiner entwickelte Theorie der kugeligen Brillen (Dioptrice) publizierte Johannes Kepler im Jahr 1604, wurde aber erst viel später von Ärzten aufgenommen. Ein weiterer Schritt ist die Entwicklung der Bifokalbrille, als deren Erfinder Benjamin Franklin gilt. Ihm war es lästig, ständig seine Fernbrille gegen die Lesebrille auszutauschen. Um 1784 kam er auf die Idee, für das jeweils rechte und linke Auge zwei Brillenlinsen mit entsprechender optischer Wirkung zu montieren, eine Konstruktion, die anfangs Franklinglas genannt wurde. Das erste Patent zur Idee eines Gleitsichtglases wurde 1909 dem Amerikaner Henry Orford zuerkannt. Die ersten Korrektionsgläser für einen Astigmatismus erfand 1825 der Britische Astronom George Airy. Auch die Entwicklung der Brillenfassungen machte Fortschritte. Um 1727 warb der englische Optiker Edward Scarlett mit einer Schläfenbrille mit seitlichen Bügeln, die bis zur Schläfe reichten. Es folgte 1752 die Knick-Stangenbrille mit horizontal doppelt angelenkten Seitenteilen von James Ayscough, der sie als seine Erfindung bewarb. Hier reichte erstmals der Bügel (ein Steckbügel) über das Ohr (oben aufliegend) und die Brille hatte ihren Halt am Hinterkopf (Krone). Diese Brille war die erste der Gattung Ohrenbrillen. Nicht allzu lange später waren die horizontal abknickbaren hinteren Bügelstangen dann mit einem vertikalen Scharnier hinter das Ohr abwinkelbar. Diese Variante war dann bis Ende des 19. Jahrhunderts gebräuchlich. Parallel dazu gab es noch die Steckbügel-Variante ohne Mittelscharnier, die auch gerne als Damenbrille bezeichnet wurde. Um 1880 folgte der Gespinstbügel (auch Reiterbügel genannt) und erst Anfang des 20. Jahrhunderts kam der heute noch gebräuchliche Golfbügel mit Cellhorn-Überzug. Neben den Bügelbrillen waren bügellose Alternativen in Form von Lorgnon, Monokel oder Zwicker teils bis ins 20. Jahrhundert weiterhin gefragt. 20. Jahrhundert Moritz von Rohr von der Firma Carl Zeiss AG entwickelte zusammen mit H. Boegehold und A. Sonnefeld 1912 die asphärische Zeiss Katral Linse für hochgradig Weitsichtige (Staroperierte) mit weit über +22,0 Dioptrien (dpt). Aus den Erkenntnissen der Katral-Gläser entstand parallel dazu bei Zeiss die Berechnungsgrundlage für das sphärische konkav-konvexe Brillenglas Zeiss Punktal für Glasstärken bis max. ±12,0 dpt. Diese Gläser bewirkten, nach sechs Jahrhunderten Brillenentwicklung, erstmals eine saubere Abbildung bis zum Glasrand. Die bisherigen Bi-Konvex- und Bi-Konkav-Linsen verschwanden zwischen 1913 und 1915 vom Markt und wurden auch bei den anderen namhaften Brillenglas-Herstellern (Rodenstock, Busch, NG usw.) durch die neuen Menisken-Gläser ersetzt. Gleichzeitig änderte sich die Brillenmode von ovalen Gläsern (~1815–1915) zu runden Gläsern (~1915–1935). In den 1930er Jahren kam die Panto-Form in diversen Varianten dazu (z. B. Zeiss Perivist-Brillen 1932). Die lange beliebte Pilotenform kam erstmals 1937 von der amerikanischen Firma Bausch & Lomb als reine Sonnenbrille noch ohne Korrektionsstärke, da die damals verfügbaren Korrektionsglas-Durchmesser für diese Glasform noch zu gering waren. Das erste Gleitsichtglas wurde im Jahr 1959 in Frankreich von der Société des Lunetiers auf den Markt gebracht und trug die Bezeichnung Varilux. Die ständigen Weiterentwicklungen, die bis heute von unterschiedlichen Unternehmen erbracht werden, dienen in erster Linie der Verbesserung der Abbildungsqualität bei gleichzeitiger Reduzierung optischer und kosmetischer Nebenwirkungen sowie der Sicherheit und dem Tragekomfort; nicht alle Firmen stellen sowohl Gläser als auch Fassungen her. Noch in den 1920er Jahren war in Großbritannien strittig, ob die Brille zu den optischen Instrumenten (wie das Mikroskop) zählte oder ob die Spectacles, zusammen mit dem Monokel, eine eigene Kategorie bildeten. Es ging dabei um die im Finance Act von 1926 festgelegten Importzölle für optische Instrumente. Am 6. Oktober 1927 entschied der Handelsausschuss der britischen Regierung, dass „Sehhilfen in der Umgangssprache wie auch in der normalen Diktion des Handels keine optischen Instrumente [sind] und deshalb auch nicht in die gleiche Klasse wie optische Instrumente fallen.“ Sie unterlagen damit weiterhin nicht den Zollbestimmungen für optische Geräte. Kassengestell In Westdeutschland gab es bis Anfang der 1980er Jahre lediglich sechs Kunststoff-Fassungen für Erwachsene und zwei für Kinder, deren Kosten von der gesetzlichen Krankenversicherung übernommen wurden. Sie hießen deshalb „Kassengestelle“. 1972 gründete der Augenoptiker Günther Fielmann in Cuxhaven ein Augenoptikfachgeschäft. Er erkannte eine Marktlücke im Geschäft mit Kassenbrillen, die aufgrund ihrer unmodernen und leicht wiederzuerkennenden Gestaltung wenig beliebt waren. 1981 schloss das Brillenunternehmen mit der AOK Esens einen Sondervertrag und schuf 90 Modelle aus Metall und Kunststoff in 640 Varianten. Damit endete in Deutschland die Ära der Einheitskassenbrille. Verbreitung Die Zahl der Brillenträger ist seit Beginn der statistischen Aufzeichnungen kontinuierlich gestiegen. Nach einer vom Kuratorium Gutes Sehen in Auftrag gegebenen Studie des Allensbach-Institutes aus dem Jahr 2008 tragen oder benötigen in Deutschland 62 Prozent der Personen über 16 Jahre eine Korrektionsbrille, davon 8 Prozent mehr Frauen als Männer. Zum Zeitpunkt der ersten Erhebung 1952 trugen nur 43 Prozent der Bevölkerung eine Brille. Besonders in der Altersgruppe der Jugendlichen und jungen Erwachsenen ist ein Zuwachs von 13 Prozent auf 26 Prozent zu verzeichnen. Durch intensive Aufklärung, Vorsorge, Früherkennung und verbesserte Diagnoseverfahren gibt es eine Tendenz zum frühen Tragen einer Brille. Die Zahl der brilletragenden Kinder wurde im Jahr 2010 mit 15 Prozent bei steigender Tendenz angegeben. In den 1970er Jahren lag sie noch bei 8 Prozent, Anfang der 1990er Jahre bereits bei 11 Prozent. Auch bei Kindern und Jugendlichen ist neben der generellen Zunahme an Brillenträgern ein Trend zum früheren Tragebeginn erkennbar, obgleich 70 Prozent der in der Studie Befragten sicher waren, dass Kinder wegen ihrer Brille gehänselt würden. Laut Aussage des Berufsverbands der Augenärzte Deutschlands (BVA) und der Deutschen ophthalmologischen Gesellschaft (DOG) benötigen etwa 20 Prozent aller Kinder eine Brille. Andere Quellen sprechen von über 30 Prozent. Die Akzeptanz der Brille ist in Deutschland hoch, so dass nach dieser Studie 91 Prozent der Brillenträger und 82 Prozent der Nicht-Brillenträger der Meinung sind, eine Brille beeinflusse die Attraktivität des Trägers nicht negativ. Die Verbreitung von Korrektionsbrillen ist weltweit sehr unterschiedlich, sie hängt vom Entwicklungsstand des Landes und dem Wohlstand der Einwohner ab. In Staaten der Dritten Welt mangelt es oft nicht nur an den finanziellen Mitteln, sich benötigte Brillen zu beschaffen, sondern bereits an deren regionaler Verfügbarkeit. Um diesem Missstand Abhilfe zu schaffen, wurde die EinDollarBrille entwickelt. Korrektionsbrillen Korrektionsgläser haben eine optische Wirkung, verändern damit den Strahlengang des in das Auge einfallenden Lichts und somit die Lage des Brennpunkts. Sie dienen der Korrektur von optischen Fehlsichtigkeiten – auch Brechungsfehler oder Ametropien genannt – und sorgen damit für eine Verbesserung der häufig reduzierten Sehschärfe. Die optische Wirkung eines Brillenglases wird auch Glasstärke genannt und kann mit einem speziellen Gerät, dem Scheitelbrechwertmesser, am Glas gemessen werden. Die Brillengröße steht meist auf der Innenseite am Bügel beziehungsweise am Steg, zum Beispiel 52–17–135 (52 mm Brillenglasgröße, 17 mm Stegweite, 135 mm Bügellänge). Diese Werte stehen im Brillenpass, der mit der Brille ausgehändigt wird. Art und Größe der Brillenkorrektur hängen von den individuellen Bedürfnissen und Anforderungen des Benutzers ab. Die erste Brille ist in der Regel mit einer gewissen Zeit der Eingewöhnung verbunden. Ursache neben dem ungewohnten Fremdkörper vor den Augen sind vor allem die veränderten visuellen Eindrücke. Diese können auch eintreten, wenn sich neue Glasstärken deutlich von den zuvor getragenen unterscheiden. Da mit einer Brille in erster Linie Fehlsichtigkeiten korrigiert werden, steigt mit ihnen in gewissem Maße auch die Sehschärfe. Es besteht also eine unmittelbar erkennbare Verbesserung, die eine regelmäßige Nutzung der Korrektur erleichtert. Die Akzeptanz kann zwar aus unterschiedlichen Gründen sinken, insbesondere bei Kindern, jene sind jedoch in der Regel selten abgeneigt, eine Brille zu tragen, wenn sie ihren Bedürfnissen entspricht. Es hat sich deshalb als vorteilhaft erwiesen, wenn sie im Rahmen der Empfehlungen ihre Brillen selbst aussuchen dürfen. Hinzu kommt eine Assoziation zum Erwachsenwerden, was sich in Verbindung mit einer positiven Einstellung der Eltern gegenüber einer Brille als weiteres Akzeptanzkriterium erwiesen hat. Nicht jede Korrektur führt automatisch zu einer unmittelbaren Verbesserung der Sehschärfe. Es gibt Fälle, bei denen ihre Träger mit einer neuen Brille anfangs nicht viel besser sehen, in einigen seltenen Fällen sogar schlechter als ohne die neue Korrektur. Dies liegt daran, dass sich die Augen in bestimmter Hinsicht erst an die Brille gewöhnen müssen, und bedeutet in keinem Fall, dass die Korrektur falsch angepasst oder gar überflüssig oder wenig nützlich sei. Refraktionsbestimmung Grundsätze Zur Ermittlung des Ausmaßes einer Ametropie (Fehlsichtigkeit) und der späteren Gläserstärken sind bestimmte Untersuchungen (objektive und subjektive Refraktionsbestimmung) notwendig, die vor einer Erstversorgung von einem Augenarzt durchgeführt werden sollten. Insbesondere bei Kindern muss bei der erstmaligen Durchführung der objektiven Refraktionsmessung diese mit speziellen Augentropfen zur kurzfristigen Erweiterung der Pupille (Mydriasis) und Ausschaltung der Akkommodation (Zykloplegie) vorbereitet werden. Nur so können die tatsächlichen Werte einer Fehlsichtigkeit (Ametropie) exakt bestimmt werden, da ansonsten der unwillkürlich einsetzende Akkommodationsimpuls die Messung in erheblichem Maße verfälschen könnte. In der Praxis wird bei Erwachsenen jedoch häufig auf dieses Verfahren verzichtet. In der Regel ist danach eine weitere Untersuchung der subjektiven Refraktion notwendig, um die endgültigen Brillenwerte zu bestimmen. Dies geschieht mit einem Phoropter, seltener mit den früher üblichen Probiergestellen. Sollte zudem eine Prismenverordnung notwendig sein, werden für die Ermittlung der Prismenstärke und Basislage weitere spezielle Untersuchungen durchgeführt. Brillenverordnung In vielen Fällen verordnen Augenärzte die Korrektionsbrillen. Die Stärke von Brillengläsern ist dabei das Ergebnis von zuvor durchgeführten Messungen der objektiven und subjektiven Refraktion. Die ermittelten Werte werden in ein spezielles Sehhilfenrezept übertragen, das dem Augenoptiker zur Anfertigung der Gläser übergeben wird. Der Optiker kann zur Dokumentation einen Brillenpass ausstellen. Kurz- und Weitsichtigkeit werden mit sphärischen Gläsern korrigiert, eine Stabsichtigkeit mit zylindrischen Gläsern, die ihre Wirkung nur in einer bestimmten Achse haben (Hauptschnitt). Der Wert eines Brillenglases besteht demnach aus einem sphärischen und gegebenenfalls einem zylindrischen Anteil mit Bezeichnung seiner Achslage. Ist die Einarbeitung von Prismen in ein oder beide Brillengläser notwendig, so werden die entsprechenden Werte (Stärke in Prismendioptrien, Basislage in Grad) ebenfalls in die dafür vorgesehenen Felder eingetragen. Bei besonders starken Gläsern kommt es auf einen sehr exakten Sitz der Korrektur an, um ein optimales Ergebnis zu erhalten. Dabei spielt der Abstand der Brillengläser vom Auge eine entscheidende Rolle. Dieser Wert heißt Hornhautscheitelabstand oder einfach nur Scheitelabstand. Auch der Abstand der Augen zueinander, die Pupillardistanz (PD), ist von Bedeutung. Beide Werte werden bei Bedarf in das Sehhilfenrezept eingetragen und in Millimetern angegeben. Zur visuellen Dokumentation der Hauptschnittangabe eines Zylinderwertes kann dieser in das halbkreisförmige TABO-Schema eingezeichnet werden. Herstellung Korrektionsbrillen werden meist industriell angefertigt. In unterschiedlichen Produktionsprozessen entstehen die Hauptkomponenten Brillengläser und Brillenfassungen, die dann meist vom Augenoptiker zum fertigen Endprodukt verarbeitet und an den Kunden ausgeliefert werden. Gleichwohl spielt der handwerkliche Aspekt im Fertigungsprozess bei vielen Augenoptikern eine übergeordnete Rolle. Die Ausstattung und Qualität von Brillen ist von Produkt zu Produkt unterschiedlich. Allgemein erfüllen sie jedoch die Grundanforderungen hinsichtlich ihrer Verwendung in allen Belangen der Haltbarkeit, Funktionalität und Sicherheit. Ihre Herstellung unterliegt Normen und Güteregeln, die in Deutschland durch den Normenausschuss Feinmechanik und Optik (NAFuO) festgelegt werden. Gläser Rohlinge Die Rohlinge für Brillengläser werden als runde Linsen aus unterschiedlichem Material hergestellt. Die Materialien unterscheiden sich in optischen und mechanischen Eigenschaften. Dabei kann grob zwischen Mineralglas und Kunststoff unterschieden werden. Mineralglas ist härter, aber auch schwerer als Kunststoff. Sowohl Mineralglas als auch Kunststoff sind mit unterschiedlichem Brechungsindex erhältlich. Ein hoher Brechungsindex erlaubt ein dünnes und damit leichtes Brillenglas. In früheren Zeiten wurden Brillengläser nahezu ausschließlich aus Mineralglas hergestellt. Nach Fortschritten in der Polymerchemie und der Fertigungstechnik überwiegen in Deutschland seit einigen Jahren Kunststoffgläser. Vom Augenoptiker werden die Rohlinge mit computergesteuerten Schleifautomaten in eine Form gebracht, die in die Brillenfassung passen. Dabei wird der von Mensch zu Mensch unterschiedliche Abstand der Augen berücksichtigt. Beim Schleifen von Kunststoffbrillengläsern entsteht Mikroplastik, welches bei den üblichen Schleifautomaten direkt mit dem Abwasser entsorgt wird. Optische Eigenschaften Die Brechkraft, auch Brechwert oder Stärke, eines Brillenglases wird in der Einheit Dioptrie (dpt) angegeben. Da die Korrekturgläser vor dem Auge positioniert sind, verursachen sie in bestimmten Bereichen Abbildungsfehler, an die sich ein Brillenträger jedoch in der Regel gewöhnt. Unterschieden werden Gläser hinsichtlich der optischen Wirkung nach sphärischen, zylindrischen/torischen, multifokalen und Gleitsicht-Gläsern. Eine Weiterentwicklung der Flächengeometrie mit dem Ziel, Abbildungsfehler zu korrigieren, sind die asphärischen, biasphärischen, vorder- und rückflächenprogressiven Freiformen. Diese haben dieselbe dioptrische Wirkung wie sphärische, torische oder Gleitsicht-Gläser. Diese Begriffe beschreiben die optisch wirksame Gestaltung der beiden Glasoberflächen, durch die das Licht ins Auge fällt, also den Verlauf ihrer Wölbungen. Zur Korrektur einer Weitsichtigkeit werden sphärische positive Gläser (Plusgläser) verwendet. Da bei diesem Brechungsfehler der Brennpunkt hinter der Netzhaut liegt, besitzen sie eine die Lichtstrahlen sammelnde Wirkung (Sammellinsen oder Konvexlinsen). Ihr Wert wird mit einem Plus (z. B. +0,75 dpt) als Vorzeichen versehen. Das betrachtete Objekt wird vergrößert. Bewegt man Pluslinsen horizontal oder vertikal vor den Augen hin und her, so erkennt man, dass sich das durch das Glas betrachtete Objekt entgegengesetzt zur Bewegungsrichtung verschiebt (gegenläufig). Als Abbildungsfehler tritt eine kissenförmige Verzeichnung auf. Minusgläser sind negative sphärische Gläser, die eine streuende Wirkung haben (Streulinsen oder Konkavlinsen) und das betrachtete Objekt verkleinern. Sie korrigieren eine Kurzsichtigkeit, bei der der Brennpunkt vor der Netzhaut liegt. Ihr Wert erhält als Vorzeichen ein Minus (z. B. −1,25 dpt). Im Gegensatz zu Plusgläsern verschieben sich durch eine Minuslinse betrachtete Objekte in die gleiche Richtung, in der ein Glas vor den Augen hin und her bewegt wird (mitläufig). Als Abbildungsfehler tritt eine tonnenförmige Verzeichnung auf. Mit Zylindergläsern wird ein Astigmatismus (Stabsichtigkeit, Hornhautverkrümmung) korrigiert. Hierbei handelt es sich um ein torisches Glas, welches seine optische Wirkung lediglich in einer Achse (Hauptschnitt) des Glases hat und folglich keinen Brennpunkt, sondern eine Brennlinie besitzt. Da die Korrektur aus einer Kombination von sphärischem und torischem Glas besteht, nennt man diese auch sphäro-torisches Brillenglas. Es besitzt zwei senkrecht zueinander liegende Hauptschnitte, wobei das arithmetische Mittel der Refraktionen als sphärisches Äquivalent bezeichnet wird. Diese Kombination gestattet es zudem, den Wert eines Zylinders mit Hilfe einer Umrechnungsformel sowohl positiv als auch negativ darzustellen. Hierbei ändert sich an der refraktiven Wirkung jedoch nichts. Bei der Umrechnung bildet die Summe aus Sphärenwert und Zylinderwert den neuen Sphärenwert, das Vorzeichen des Zylinderwertes ändert sich, und der Achsenwert verschiebt sich um 90° (liegt aber immer zwischen 0° und 180°). Folgende Brillenwerte haben beispielsweise eine identische Wirkung: +1,00 −0,50/0° und +0,50 +0,50/90°. Die Lesart für diese beiden Werte lautet: +1,0 Sphäre kombiniert mit −0,5 Zylinder in Achse 0 Grad bzw. +0,5 Sphäre kombiniert mit +0,5 Zylinder in Achse 90 Grad. Während in der optometrischen Terminologie der Augenoptiker bevorzugt die Notation mit Pluszylindern erfolgt und auch die Rechnungen an den Kunden entsprechend formuliert werden, verwenden die Augenärzte meist die Schreibweise mit Minuszylindern, auch in den Rezepten, was beim Patienten beziehungsweise Kunden regelmäßig zu entsprechender Verunsicherung hinsichtlich ihrer tatsächlichen Brillenstärke führt und immer wieder Erklärungsbedarf verursacht. In vielen Fällen wird die Glasstärke auch direkt durch Angabe der bestehenden Hauptschnitte notiert. Im obigen Beispiel ergibt sich folgende Lesart: HS1 +1,0 HS2 0,5 in Achse 0 Grad. bzw. HS1 +0,5 HS2 1,0 in Achse 90 Grad. Einstärkengläser Brillenkorrekturen, deren Gläser lediglich einen Brennpunkt aufweisen, nennt man zusammenfassend Einstärkenbrille. In der Regel stellen sie die Vollkorrektur einer bestehenden Ametropie (Kurzsichtigkeit, Weitsichtigkeit) dar und ergeben so quasi eine artifizielle Emmetropie mit einer altersgemäßen Sehschärfe in allen Distanzen. Manche Einstärkengläser werden nur für einen bestimmten Entfernungsbereich eingesetzt. Hierzu gehören beispielsweise die sogenannte Fernbrille für eine gute Sicht in maximaler Entfernung, die bei einer bestehenden Kurzsichtigkeit in der Nähe ggf. nicht verwendet werden muss. Lesebrillen hingegen sind für nahe Distanzen (bis in der Regel etwa 40 Zentimeter) gedacht, die jedoch für die Fernsicht überflüssig sein können. Aber auch für alle Zwischendistanzen können Korrekturen angefertigt werden, zum Beispiel für die Bildschirmtätigkeit in etwa 60 Zentimetern Entfernung. Einstärkenbrillen bieten sich an, wenn über einen gewissen Zeitraum hinweg und innerhalb einer etwa gleichbleibenden Entfernung eine Sehhilfe notwendig ist. Vorteilhaft dabei ist, dass die Brillengläser leichter sind und über ihre gesamte Größe ein klares Bild ermöglichen. Von Nachteil kann dagegen sein, dass man für unterschiedliche Entfernungen die Brillen ggf. absetzen bzw. wechseln muss. Mehrstärkengläser Korrektionsbrillen, deren Gläser mehr als einen Brennpunkt besitzen, werden zusammenfassend Mehrstärken- oder Multifokalbrillen genannt. Zu ihnen zählen die Bifokalbrille als Sehhilfe für zwei feste Entfernungsbereiche (in der Regel Ferne und Nähe) und die Gleitsichtbrille zur übergangslosen Korrektur für alle Bereiche zwischen Ferne und Nähe bzw. als sogenanntes Nahkomfortglas für den erweiterten Nahbereich zwischen 40 und 100 cm. Für besondere Einsatzbereiche gibt es spezielle Trifokalbrillen mit optischen Wirkungen für drei unterschiedliche Entfernungen. Mehrstärkenbrillen bieten sich an, wenn neben einem Brechungsfehler auch eine Alterssichtigkeit (Presbyopie) korrigiert werden soll, sowie bei Tätigkeiten, die verschiedene Entfernung betreffen und für die jeweils ein unterschiedlicher Korrekturwert notwendig ist. Der Vorteil liegt darin, dass man beim Wechsel zwischen den einzelnen Distanzen nicht jedes Mal die Brille tauschen muss. Nachteilig kann sich auswirken, dass für die gewünschte optische Wirkung nur ein Teil des Brillenglases zur Verfügung steht. Zudem kann es bei Brillengläsern mit einer optischen Wirkung für den Nahbereich in der unteren Hälfte des Glases dazu kommen, dass bei Blicksenkung entferntere Dinge am Boden etc. verschwimmen (Treppensteigen). Fertigungsbedingt verläuft der optimale Bereich eines Gleitsichtglases in einer Kurve von oben nach unten und ein wenig nach innen (der Progressionskanal). Die optimalen Dioptrienwerte werden im Gleitsichtbereich nur auf dieser Linie erreicht. Wie breit der Toleranzbereich links und rechts dieser Linie ist, hängt von der Qualität des Glases, aber auch von der Nahkorrektur ab. Freiformgläser Eine Weiterentwicklung der Gleitsichtgläser (Progressivgläser) sind die Freiformgläser (engl. „FreeForm“): Brillengläser, die individuell für jedes Auge des Kunden erstellt werden und somit einzigartig sind. Die konkave Oberfläche der Linsen wird durch komplexe Algorithmen einer LDS (Lens Design Software) berechnet. Diese Oberflächen werden dann an hochwertigen CNC-Präzisionsmaschinen mit High Speed Cutting bearbeitet. Materialien Eigenschaften Die moderne augenoptische Industrie stellt Brillengläser in der Regel aus Mineralglas oder Kunststoff her. Die verschiedenen Materialien unterscheiden sich nach den optischen und mechanischen Eigenschaften: Dichte: Kunststoff ist leichter als Glas Härte: Glas ist härter als Kunststoff, kann dafür leichter zerbrechen und birgt damit in manchen Fällen ein erhöhtes Verletzungsrisiko. Brechungsindex: Ein höherer Brechungsindex ermöglicht dünnere und somit leichtere Gläser. Die Werte für den Brechungsindex reichen von etwa 1,5 bis 1,75 bei Kunststoffgläsern, bei Mineralgläsern von 1,5 bis 1,9. Abbe-Zahl: Sie gibt die Dispersion des Glases an, die zu Farbaberrationen am Rande führt. Gläser mit höherem Brechungsindex und Kunststoffgläser weisen in diesem Aspekt Nachteile auf. Beispiele sind: Gläser aus dem Kunststoff CR-39 sind leichter als herkömmliche Mineralgläser, sie reduzieren das Gewicht einer Brille somit deutlich und sind dabei vergleichsweise dicker. Der Kunststoff ist bruchsicher, verkratzt jedoch schneller als Glas. Abhilfe schaffen bis zu einem gewissen Ausmaß spezielle Lackhärtungen, die von den Krankenkassen jedoch nicht bezahlt werden. Polycarbonat ist ein besonders leichter, hochbrechender Kunststoff, der dünn verarbeitet werden kann und dabei extrem bruchsicher ist. Deshalb eignet sich Polycarbonat besonders für die Brillenglasfertigung bei Kinder- und Sportbrillen. Als Nachteile werden genannt, dass störende Farbstreuungen auftreten können und dass die Oberfläche kratzempfindlich ist, wobei auch eine Versiegelung keine optimale Kratzfestigkeit gewährleisten kann. Weitere Eigenschaften Die Größe der Brillengläser wird in erster Linie durch die Brillenfassung vorgegeben. Durchmesser von etwa 23 bis 35 Millimetern sind bei Kindern ausreichend; bei Erwachsenen können sie auch deutlich größer ausfallen, insbesondere bei Mehrstärkengläsern. Je kleiner die Brillengläser sind, desto geringer fällt ihr Gewicht aus, und die gesamte Brille wird leichter. Werden zur Fertigung von Plusgläsern größere Rohlinge verwendet, als erforderlich ist, steigt die Dicke und das Gewicht der späteren Brillengläser unnötigerweise. Bei allen Gläsern haben zudem Glasstärke, Material und Flächengeometrie Einfluss auf das Gewicht. Tönungen reduzieren den Lichteinfall und können dadurch die Sehschärfe verschlechtern. Deshalb sind sie nur in bestimmten Situationen vermehrter Lichteinstrahlung oder bei erhöhter Blendungsempfindlichkeit sinnvoll. Man kann sie mit einer speziellen Eigenschaft ausstatten, so dass sie ihren Tönungsgrad automatisch in Abhängigkeit von den aktuellen Lichtverhältnissen ändern (selbsttönend, phototrop). Wegen der langsamen Reaktionszeit gelten sie als nur bedingt geeignet zum Autofahren. Entspiegelungen verringern störende Lichtreflexe auf dem Brillenglas durch eine Antireflexbeschichtung und sorgen für ein angenehmeres Sehen ohne störende Spiegelbilder, insbesondere unter künstlichen Beleuchtungsverhältnissen. Je nach Grad der Entspiegelungswirkung können verschiedene Entspiegelungsgrade genutzt werden: Einfach-, Mehrfach- oder „Superentspiegelungen“. Sie werden in Kombination mit Mineral- und Kunststoffgläsern verwendet. Entspiegelungen bieten sich zum Beispiel an für Autofahrten bei Nacht wegen der möglichen Blendung durch entgegenkommende Fahrzeuge. Eine Hartschicht erhöht die Widerstandsfähigkeit der Oberfläche von Kunststoffgläsern gegen Kratzer und Verschleiß. Diese Beschichtung wird entweder aufgedampft – hier kommt meist recht sprödes Siliciumdioxid zum Einsatz – oder als flexibler Lack in einem Tauchbad aufgebracht. Allerdings liefert die Hartschicht keinen erhöhten Schutz gegen das Zerbrechen der Gläser. Fassung Eigenschaften An die Fassung einer Korrektionsbrille werden funktionale sowie modische Anforderungen gestellt. Eine Brille soll für den Träger leicht und flexibel, dabei aber auch sehr stabil und haltbar sein. Sie soll fest sitzen, ohne zu drücken. Darüber hinaus orientieren sich Fassungen äußerlich hinsichtlich ihres Designs und ihrer Form an regional und zeitlich variierenden Moden. Die Vielfältigkeit an Brillenfassungen hat im Laufe der Zeit zugenommen. Mittlerweile gibt es beispielsweise Vollrandfassungen, Tragrandfassungen, Rimfassungen oder randlose Fassungen, jeweils in unterschiedlichen Größen, Formen, Materialien sowie Farben und deren Kombinationen. Historische Fassungen wie Lorgnon, Monokel oder Zwicker finden nur noch selten Anwendung. Das Material der Fassung ist ein wichtiges Kriterium für Verträglichkeit und Haltbarkeit, wobei manche Brillen sogar danach benannt sind, zum Beispiel die Hornbrille oder die Nickelbrille. Üblicherweise werden unterschiedliche Metalle und Metalllegierungen, beispielsweise Neusilber, Federbronze, rostfreier Edelstahl, Titan oder Goldlegierungen verwendet, ebenso Kunststoffe wie Celluloseacetat oder verschiedene Spritzgussmaterialien. Seltener kommen andere Materialien zum Einsatz wie etwa Holz, Hanf, Leder oder auch Verbundwerkstoffe aus verschiedenen Rohstoffen wie etwa recycelten Jeans und alten Büchern. Allergien wird durch eine entsprechende Materialwahl oder spezielle Beschichtungen vorgebeugt. Besonders flexible und haltbare Fassungen, die stark verbogen werden dürfen und durch die ihre Materialeigenschaften wieder selbstständig in ihre ursprüngliche Form zurückfedern, werden aus einer Kombination aus Titan und Stahl hergestellt. Die Größe der Fassung richtet sich nach der Gesichtsgröße, der Größe der Augenhöhle (Orbita) und dem bestehenden Augenabstand. Die äußeren Begrenzungen enden nach oben hin meist etwa unter den Augenbrauen, um ggf. ein Darüberschauen beim Aufblick zu verhindern. Nach unten befinden sie sich im Grenzbereich zwischen Lid- und Wangenhaut, ohne auf den Wangenknochen aufzuliegen. Zur Seite reichen sie meistens maximal bis zum Rand der Schläfen. Je kleiner die Fassung gewählt wird, desto geringer sind die Bewegungseinschränkungen durch die Brille. Besonders das Auftreten von Gesichtsfeldeinschränkungen bei höheren Kurz- und Weitsichtigkeiten kann durch eine kleinere Fassung und nah an den Augen liegenden Gläsern auf ein Minimum reduziert werden. Die Fassung wird unter Einhaltung strenger Zentriervorschriften (RAL-RG 915) sehr genau gearbeitet, damit die Lage des optischen Mittelpunkts der Brillengläser möglichst dem Pupillenmittelpunkt entspricht. Der Mittenabstand (MA) der Brillengläser muss dabei dem Abstand der Augen entsprechen, also der sogenannten Pupillardistanz (PD). Bügel Brillenbügel stellen die Verbindung vom Glashalter zum Kopf des Trägers her. Sie müssen lang genug sein, um keine Druckstellen hervorzurufen, dabei jedoch einen festen Sitz gewährleisten. Auf Metallbügel wird an den Enden oft ein Kunststoffüberwurf, das Zellende oder Bügelende, aufgezogen. Manche Brillenfassungen verfügen über Wechselbügel mit unterschiedlichen Farben und Mustern. Die Bügel sind im Allgemeinen mit kleinen Scharnieren an der Fassung befestigt. Das sich hier bietende Potenzial an Verletzungsgefahr können Kunststoffkappen reduzieren, die über die Scharniere gezogen werden. Zudem ist es möglich, die ab einer Öffnungsweite von etwa 90 Grad meistens steifen Bügel mit Federscharnieren auszustatten, die eine Bewegung über den rechten Winkel hinaus möglich machen und so für mehr Haltbarkeit und Flexibilität beim Auf- und Absetzen sorgen. Spezielle Bügel, die hinter dem Ohr bis fast zum Ohrläppchen reichen und mit einem elastischen Anteil für einen sicheren Halt sorgen, werden Gespinst-, Glieder- oder Sportbügel genannt und finden sich an Kinder- und Sportbrillenfassungen. Gegen mögliche Druckstellen oder allergische Reaktion hilft oft ein Kunststoffüberzug an dem flexiblen Teil, der hinter dem Ohr verläuft. Eine weitere Variante, die einen festen Sitz gewährleistet, ist ein elastisches Gummiband, das an zwei geraden, nicht gebogenen Bügeln befestigt ist und hinter dem Kopf entlangführt. Für Säuglinge und Kleinkinder gibt es die Möglichkeit, eine solche Befestigung in ein Häubchen einzuarbeiten, damit das Kind die Brille nicht herunterreißen kann. Scharniere Je nach Bügelbreite, Fassungsgewicht und gewünschter Stabilität werden Scharniere mit insgesamt 3, 5 oder sogar 7 Lappen eingesetzt (hier wird die Summe aller Lappen der beiden Scharnierhälften gezählt). Scharniere für Metallfassungen Auf Brillenfassungen aus Metall kommen Scharniere zum Einsatz, die sich mit dem Grundmaterial stoffschlüssig verbinden lassen. Am weitesten verbreitet sind Scharniere aus Neusilber, aber je nach Brillenwerkstoff werden auch Scharniere aus Edelstahl oder Titan eingesetzt. Bei letzterem wird aufgrund der ungünstigen Reibwerte der Einsatz einer Art Unterlegscheibe zwischen den Scharnier-Lappen nötig. Dieser sogenannte Washer ist i. d. R. aus Neusilber und wird zum Korrosionsschutz vergoldet. Je nach Material der Fassung werden die Scharniere durch Löten, Widerstandsschweißen oder Laserschweißen an Metallbügel und Brillenfront befestigt. Scharniere für Kunststoff-Fassungen Bei Scharnieren für Kunststofffassungen aus Celluloseacetat wird ein pilzförmiger Einsenkfuß mittels Wärme oder Ultraschall im Kunststoff der Brillenfront verankert. Da Azetat bei erhöhten Temperaturen nicht besonders formstabil ist, wird das Scharnier bügelseitig auf eine sogenannte Einlage gelötet oder geschweißt, die dann unter Erwärmen in den Azetatbügel „eingeschossen“ wird, um ihm gleichzeitig Stabilität zu verleihen und Anpassbarkeit an das Ohr und die Kopfform des Trägers zu ermöglichen. Eine andere Art, Kunststoffbrillen herzustellen, ist das Spritzgießverfahren. Hier kommen vor allem Polycarbonat, Nylon, TR90 etc. zum Einsatz. Das ebenfalls mit Einsenkfuß versehene Scharnier wird im Spritzwerkzeug als Einlegeteil umspritzt. Aufgrund der höheren Formstabiltiät der Spritzgusswerkstoffe wird bügelseitig im Gegensatz zu Azetatausführungen meist keine Metalleinlage benötigt, insbesondere da der Bügel bereits in der gewünschten Form gespritzt wird. Scharniere für Fassungen aus anderen Materialien Da bei exotischen Materialien wie Horn, Aluminium, Holz, Papier, Stein etc. Metallscharniere weder eingesenkt noch durch löten oder schweißen verbunden werden können, verwendet man hier Nietscharniere, bei denen in Scharnier und Brillenmaterial Bohrungen für Nietverbindungen vorgesehen werden. Formschöne Nieten werden allerdings auch bei anderen Materialien als rein dekorative Elemente ohne mechanische Funktion verwendet. Für 3D-gedruckte Fassungen gibt es die Möglichkeit, die Scharniere gleich in einem Stück in Bügel bzw. Front zu drucken. Es werden aber auch spezielle Sonderformen angeboten, die im 3D-gedruckten Material verschraubt oder anderweitig verankert werden. Um einen geschmeidigen, konstanten Scharniergang zu gewährleisten und sicherzustellen, dass die Schraube nicht verloren geht, werden bei Normalscharnieren in hochwertige Fassungen kunststoffumspritzte Schrauben zur Schraubensicherung und Gangregulierung eingesetzt. Federscharniere Um den Tragekomfort einer Brille zu erhöhen, können Federscharniere verwendet werden. Federscharniere ermöglichen es, den Brillenbügel gegen eine Federkraft um in der Regel 5–20° über die Trageposition hinaus nach außen zu überdehnen. Dadurch ist das Auf- und Absetzen der Brille komfortabler und einfacher. Zusätzlich erlauben sie es, die Form der Fassung so zu justieren, dass das Federscharnier beim Tragen einen leichten Druck auf die Schläfen ausübt und einen sicheren Sitz der Brille gewährleistet. Eine weitere Funktion des Federscharniers ist bei vielen Fassungen der sogenannte Schnappeffekt (engl.: „Double Action“). Hierfür besitzt das mit dem Federscharnier zusammenarbeitende Gegenscharnier i. d. R. einen Nocken, der die Feder beim Bewegen des Scharniers bis zum Scheitelpunkt des Nockens komprimiert und so die Federkraft erhöht. Beim Weiterbewegen des Bügels entlädt sich die so gespeicherte Energie in einer Schnappbewegung, die den Bügel in seiner Bewegung unterstützt, die Brille zu öffnen oder zu schließen. Gleichzeitig hilft dieser Nocken, die Bügel in einer stabilen Trage- und Transportposition zu halten. Fehlt dieser Nocken, ist die einzige zusätzliche Funktion des Federscharniers das Überdehnen nach außen (= „Single Action“). Analog zu Normalscharnieren gibt es je nach Bügelbreite, Fassungsgewicht und gewünschter Stabilität Federscharniere mit insgesamt 3 oder 5 Lappen (auch hier wird die Summe aller Lappen der beiden Scharnierhälften gezählt). Der jeweils mittlere Lappen ist der gefederte Mechanismus, die ihn umgebenden bilden das Gegenscharnier. Die meisten Federscharniere sind mit Druckfedern ausgestattet, die entweder auf dem einlappigen Mechanismus montiert sind oder, bei breiteren Federscharnieren, meist zwischen den Lappen des U-förmigen zweilappigen. Es gibt unterschiedliche Bauformen an Federscharnieren für unterschiedliche Anwendungen und Brillenmaterialien. Die Befestigungstechnik ist der von Normalscharnieren vergleichbar, spezielle Federscharniere lassen sich auch einpressen, einrasten oder verschrauben. Nasensteg/-pads Die Nase trägt einen großen Teil des Brillengewichts. Um ein Rutschen oder die Entstehung von Druckstellen zu vermeiden, ist die Auflagefläche des Nasenstegs deshalb entsprechend groß und besteht meist aus weichem Material. Eine gute individuelle Anpassung an den Nasenrücken bieten Seitenstege oder Nasenpads aus unterschiedlichen Materialien. Ihre Halterungen können mit Zange und Hand durch Biegen an den Nasenbereich angepasst werden, allerdings passiert ein Verbiegen auch durch Anprall eines Sportballs oder durch Unfälle. Seitenstege und insbesondere die Nasenpads sind Verschleißteile und können mitunter bei Bedarf ausgetauscht werden. Bei Kindern ist der Nasenrücken noch nicht voll ausgebildet (Epikanthus). Um diesem anatomischen Umstand Rechnung zu tragen, gibt es spezielle, aus Kunststoff gefertigte Sattelstege oder Schlaufenstege, die eine größere Auflagefläche haben und das Gewicht gleichmäßig verteilen. Zudem können sie vom Augenoptiker in gewissen Grenzen geformt und angepasst werden. Brillen im 3D-Druck Die Anzahl der im industriellen 3D-Druck hergestellten Brillenfassungen ist deutlich gestiegen. Immer mehr Unternehmen nutzen das Verfahren. Für den 3D-Druck der Fassungen wird Polyamid in Form eines feinen weißen Pulvers als Ausgangsmaterial genutzt. Es wird im selektiven Laser-Sinter-Verfahren produziert. Das Polyamid-Pulver wird bei der Herstellung schichtweise aufgetragen und mit einem Laser unter erhöhtem Druck verschmolzen, in Fachkreise auch als backen bezeichnet. Der Aufbau Schicht für Schicht wird von der Druckplattform ermöglicht, auf die das Pulver aufgetragen wird und welche sich immer weiter absenkt. Die fertige Brille wird von den Resten des nicht verschmolzenen Materials befreit. Das restliche Pulver kann weiter verwendet werden. Nach dem Drucken wird die Oberfläche des weißen Rohlings mechanisch geglättet und anschließend gefärbt. Der 3D-Druck gilt als nachhaltig, weil er keinen Verschnitt aufweist und inzwischen auch Polyamide aus rein pflanzlichem Material genutzt werden können. Gegenüber herkömmlichen Acetat-Brillen sind 3D-Druck-Brillen um etwa 30 % leichter und belastbarer. Die kratzfeste, strukturierte Oberfläche der Brillenfassungen ist unempfindlich gegen Verschmutzungen. Hauptvorteil einer 3D-Druck-Brille ist die individuelle Anpassung an unterschiedlichste Kopfkonturen bereits bei der Herstellung. Versorgungskriterien Jeder Erstversorgung mit einer Brille sollte eine augenärztliche Untersuchung vorausgehen. Bei einem Erwachsenen kann die Erstversorgung auch von einem Augenoptiker vorgenommen werden, wenn keine anderen Beschwerden vorliegen. Kinder und Jugendliche Die Verordnung einer Brille im Säuglings- oder Kindesalter hat fast immer einen medizinisch-therapeutischen Hintergrund. Höhergradige Fehlsichtigkeiten wie Weitsichtigkeit, Kurzsichtigkeit oder Stabsichtigkeit können die normale Entwicklung des Sehens in frühster Kindheit beeinträchtigen und müssen rechtzeitig mit einer entsprechenden Brille korrigiert werden. Ansonsten droht eine irreversible Schwachsichtigkeit (Amblyopie), die später auch mit einer optimalen Brillen- oder Kontaktlinsenkorrektur nicht mehr zu heilen ist. Ein weiteres Kriterium für die umgehende Versorgung mit einer Brille ist eine drohende oder bereits vorhandene Schielerkrankung. Hier ist die Gefahr einer Amblyopie wegen des Nichtgebrauchs des schielenden Auges (Supression) noch höher. Dieses Risiko besteht selbst bei voll entwickelter Sehschärfe noch bis zum Beginn der Pubertät. Zudem kann die Brille in manchen Fällen die Stellung der Augen und somit das beidäugige Sehen beeinflussen, weshalb eine möglichst frühzeitige Korrektur erforderlich ist. Hierfür besitzen Brillengläser in bestimmten Fällen eine prismatische Wirkung, die den Strahlengang des Lichts durch das Brillenglas verändert. Diese Eigenschaft kann erreicht werden, indem man ein Prisma direkt in ein Glas einarbeitet oder es mittels einer jederzeit entfernbaren Folie auf das Glas aufklebt. Erwachsene Erwachsene benötigen eine Brille aus den gleichen Gründen wie Kinder, nämlich um eine bessere Sehschärfe zu erreichen, eine Schielstellung zu korrigieren oder asthenopische Beschwerden zu beseitigen. Im Gegensatz zu Kindern bleiben jedoch keine ernsthaften Schäden zurück, sollte eine notwendige Korrektur nicht getragen werden. Das Erfordernis des Brilletragens ergibt sich auch aus anderen Aspekten. So ist in bestimmten Situationen das Tragen einer notwendigen Brille gesetzlich vorgeschrieben, beispielsweise beim Bedienen von Maschinen oder Führen eines Kraftfahrzeugs. 62 Prozent aller Autofahrer benötigen eine Brille, lediglich 34 Prozent benutzen sie jedoch ständig. Auch das Tragen der Brille am Arbeitsplatz kann bestimmten Richtlinien unterliegen. Beschäftigte, die gewöhnlich bei einem nicht unwesentlichen Teil ihrer normalen Arbeit ein Bildschirmgerät benutzen, unterliegen der EG-Richtlinie 90/270/EWG vom 29. Mai 1990 über Mindestvorschriften bezüglich der Sicherheit und des Gesundheitsschutzes bei der Arbeit an Bildschirmgeräten. In Deutschland wurden mehrere EG-Richtlinien, darunter die EG-Richtlinie 90/270/EWG aufgrund der Ermächtigung nach Arbeitsschutzgesetz durch die Bundesregierung eine Verordnung über Sicherheit und Gesundheitsschutz bei der Arbeit an Bildschirmgeräten (BildScharbV) vom 4. Dezember 1996 erlassen. Der Arbeitgeber kann ein augenärztliches Gutachten über die Eignung zur Arbeit an Bildschirmgeräten fordern, in dem gegebenenfalls dokumentiert ist, ob eine Bildschirmarbeitsplatzbrille verbindlich getragen werden muss. Weitere Aspekte der Brillenkorrektur Funktionelle und therapeutische Bedeutung der Brille Prinzipiell erfüllt eine Brille nur dann ihre Funktion, wenn sie getragen wird. Wird sie abgesetzt, ist ihre Wirkung nicht mehr vorhanden. Brillen, die zur Korrektur von Fehlsichtigkeiten verwendet werden, nehmen auf deren Ausmaß jedoch keinerlei Einfluss und verbessern diese objektiv nicht. Umgekehrt verschlechtern sich Fehlsichtigkeiten auch nicht durch das Nichttragen einer Brille. Die Veränderungen, denen die Augen über die Lebensjahre hinweg ausgesetzt sind, werden also unabhängig davon stattfinden, ob eine notwendige Brille getragen wird oder nicht. Die Beseitigung von Beschwerden und einer schlechten Sehschärfe, die ohne Brille vorhanden sind, ist allerdings nur unter Benutzung einer entsprechenden Korrektur zu erzielen. Zudem kann es in manchen Fällen von Weitsichtigkeit (Hyperopie) zu einem Akkommodationskrampf kommen, wenn eine notwendige Korrektur nicht benutzt wird. Kontrollen Die Augen unterliegen gewissen Veränderungen. Insbesondere bei Kinderbrillen sind regelmäßige Kontrollen aus zweierlei Gründen erforderlich. Zum einen werden durch eine intensive Nutzung öfter die Fassung verbogen oder die Gläser zerkratzt. Da ein optimaler Sitz und eine bestmögliche Abbildungsqualität unerlässlich sind, sind entsprechende Kontrollen nicht zu vermeiden. Zum anderen ändern sich durch die Entwicklung und das Wachstum der Kinder die optischen Brechungsverhältnisse der Augen. Dies führt dazu, dass die einmal ermittelte Glasstärke nach einem bestimmten Zeitraum nicht mehr den aktuellen Erfordernissen entspricht und angepasst werden muss. Die zeitlichen Abstände, in welchen dies geschieht, sind individuell verschieden und hängen mit anderen Befunden zusammen. Wenn der Augenarzt nichts anderes empfiehlt, ist sechs bis acht Wochen nach der Erstverordnung eine Kontrolle notwendig, ob die medizinischen und funktionellen Erwartungen erfüllt sind. Weitere Kontrollen sind in regelmäßigen Abständen nach Absprache vorzunehmen. Liegt eine Amblyopie oder Schielerkrankung vor, werden Brillenkontrollen im Rahmen der augenärztlichen Untersuchungen durchgeführt werden können. Ansonsten ist für die Prüfung der Brille und Sehschärfe der regelmäßige Besuch bei einem Augenoptiker empfehlenswert. Wird festgestellt, dass sich die Augen in deutlichem Maße verändert haben, sollte eine erneute Brillenglasbestimmung, ggf. wieder unter Verwendung von Augentropfen, bei einem Augenarzt erfolgen. Bei Erwachsenen ist eine Kontrolle der Glasstärken alle zwei bis drei Jahre empfehlenswert, bei subjektiven Beschwerden oder Nachlassen der Sehschärfe früher. Qualitätsgrenzen Eine Brille kann Probleme mit sich bringen. Dies ist möglicherweise der Fall, wenn die zu korrigierende Fehlsichtigkeit sehr hoch ist und die Brillengläser entsprechend stark ausfallen müssen. Neben dem Gewichtsproblem der Gläser, das heutzutage mit geeigneten Materialien und Herstellungsverfahren verringert werden kann, gibt es in vielen Fällen Unverträglichkeiten hinsichtlich der Abbildungsgröße auf der Netzhaut, der Kissenverzeichnungen und Gesichtsfeldeinschränkungen bei hohen Plusgläsern (Beispiel: Starbrille), prismatischen Nebenwirkungen bei Dezentrierung und allgemein Glaszonen unterschiedlicher Bildqualität. Ebenso sind sehr unterschiedliche Brechungsverhältnisse von rechtem und linkem Auge (Anisometropie) mit Brillengläsern nur bis zu einem bestimmten Ausmaß einigermaßen zufriedenstellend zu korrigieren. Der Grund für diese Schwierigkeiten liegt nicht zuletzt in dem Abstand der Brillengläser zum Auge. Deshalb sind in den entsprechenden Fällen gegebenenfalls Kontaktlinsen den Brillen vorzuziehen. Risiken Das Tragen einer Brille geht nicht mit einem erhöhten Verletzungsrisiko einher, auch nicht bei Kinderbrillen. Hingegen kann eine Brille ernsthafte Verletzungen am Auge eher noch verhindern. Gleichwohl können bei Einwirkungen von außen, beispielsweise Faustschlag, Prellungen, Blutergüsse und/oder ein Brillenhämatom entstehen, das aber auch unabhängig vom Tragen einer Brille auftreten kann. Alternativen Zur Korrektur von Ametropien mittels einer Korrektionsbrille gibt es Alternativen. Eine davon ist die Anpassung von Kontaktlinsen, bei der jedoch bestimmte Voraussetzungen, beispielsweise hinsichtlich der Verträglichkeit, erfüllt sein müssen. Die Kosten hierfür werden in Deutschland von den gesetzlichen Krankenkassen nur in medizinisch begründeten Ausnahmefällen übernommen. Ein deutlicher Vorteil gegenüber Brillenkorrekturen liegt neben der größeren Bewegungsfreiheit und dem kosmetischen Aspekt in der Möglichkeit, bei sehr geringen optischen und funktionalen Nebenwirkungen sehr hohe Fehlsichtigkeiten zufriedenstellend korrigieren zu können. Eine weitere Alternative besteht in der Durchführung refraktiver Eingriffe, d. h. operativer Interventionen am Auge zur Reduzierung bestehender Brechungsfehler. Solche Operationen sind nicht ohne ein gewisses Risiko; zudem gibt es Einschränkungen hinsichtlich der Dosierbarkeit mit dem Ergebnis von Über- oder Unterkorrekturen. Langzeitstudien liegen noch nicht vor. Die Kosten müssen vom Patienten selbst getragen werden. Eine solche Behandlung kann sich jedoch bei sehr hochgradigen Ametropien anbieten, bei denen weder eine Brillen- noch eine Kontaktlinsenanpassung sinnvoll bzw. möglich ist. Kosten und Versorgungsleistungen der Krankenkassen Die Leistungen von gesetzlichen Krankenkassen sind in Hilfsmittelrichtlinien geregelt. Davon unbenommen ist generell die Möglichkeit, private Zusatzversicherungen wie beispielsweise eine Brillenversicherung abzuschließen, die unterschiedliche Leistungen und Konditionen anbieten können. Deutschland Obgleich Sehhilfen im Hilfsmittelverzeichnis der gesetzlichen Krankenversicherung (GKV) aufgeführt sind, besteht ein Anspruch auf Kostenübernahme lediglich für Kinder und Jugendliche im Rahmen unterschiedlicher pauschaler Festbeträge. Eine Ausnahme hiervon bilden stark sehbehinderte Menschen. Mit Inkrafttreten des Heil- und Hilfsmittelversorgungsgesetz (HHVG) am 11. April 2017 wurde festgelegt, dass bei Erwachsenen zukünftig die Kosten für „Gläser mit einer Brechkraft von mindestens 6 Dioptrien“ sowie bei vorhandener „Hornhautverkrümmung von mindestens 4 Dioptrien“ von den Krankenkassen übernommen werden ( Abs. 2 Satz 2 SGB V). Die Endverbraucherpreise einer Brille richten sich im Allgemeinen nach Qualität und Ausstattung, unterliegen jedoch wegen einer Zunahme des Wettbewerbs auch einer deutlichen Preispolitik der Unternehmen. Es gibt gewisse Standards, die sich mit geringerem finanziellen Aufwand realisieren lassen, wohingegen aufwändige Verarbeitung oder spezielle Materialien höhere Ausgaben nach sich ziehen. Die Kosten für Entspiegelungen und Tönungen beispielsweise müssen in der Regel von den Kunden selbst getragen werden. Die Gesetzliche Krankenversicherung (GKV) in Deutschland unterscheidet in der Kostenfrage nach Gläsern und Fassungen. Die Kosten für die Fassung werden von ihr nicht übernommen, die von Gläsern bis längstens zur Vollendung des 18. Lebensjahres lediglich im Rahmen eines pauschalen Festbetrags, der sich am Alter des Kindes und den Glasstärken orientiert. Handelt es sich nicht um eine erstmalige Versorgung, sondern um eine Wiederverordnung, besteht nach Vollendung des 14. Lebensjahres nur ein Anspruch auf Kostenübernahme, wenn sich die Glasstärke gegenüber der letzten Verordnung um mindestens 0,5 Dioptrien verändert hat. Reparaturkosten werden von den Krankenkassen übernommen. Die Kosten für Kunststoffgläser wurden eine Zeit lang nur bei Vorschulkindern getragen. Mit Beschluss vom 16. Oktober 2008 hat jedoch der Gemeinsame Bundesausschuss, das höchste Gremium der gemeinsamen Selbstverwaltung im deutschen Gesundheitswesen, durch eine Überarbeitung der Hilfsmittel-Richtlinie für eine allgemein bessere Versorgung mit Sehhilfen zu Lasten der Gesetzlichen Krankenversicherung gesorgt. In dem Beschluss wurde zum einen der Verordnungsausschluss von Trifokalbrillen, Gleitsichtbrillen und hochbrechenden Gläsern weitgehend abgeschafft und den Markterfordernissen angepasst. Zudem können bei geringgradigen Fehlsichtigkeiten Kunststoffgläser über das Vorschulalter hinaus rezeptiert werden. Schweiz In der Schweiz wurden die Kosten für Brillengläser in Höhe eines festgelegten Einheitsbetrages von der obligatorischen Krankenpflegeversicherung bis zum Jahr 2010 übernommen. Nachdem mit Inkrafttreten der Mittel- und Gegenstände-Liste (MiGeL) vom 1. Januar 2011 das Schweizer Bundesamt für Gesundheit (BAG) die Kostenübernahme ersatzlos gestrichen hatte, werden ab dem Juli 2012 für Patienten bis zum vollendeten 18. Lebensjahr Brillengläser und Kontaktlinsen wieder bis zu einer Höhe von 180,00 CHF jährlich übernommen. Bei ärztlich verordneten Brillengläsern werden auch unabhängig vom Alter höhere Beiträge übernommen. Das gilt beispielsweise bei sehr starken Sehfehlern oder wenn bestimmte Krankheiten vorliegen (Stand Januar 2020). Österreich In Österreich fallen Brillen unter die sogenannten Heilbehelfe. Zuzahlungen für Brillen werden in bestimmter Höhe von der Österreichischen Gesundheitskasse (ÖGK) übernommen, wenn diese höher sind als 60 % der Höchstbeitragsgrundlage für den Kalendertag. Stand 2021 beträgt die Mindestkostenbeteiligung der erwachsenen Versicherten 111 Euro und für Kinder über 15 Jahre 37 Euro. Für Kinder bis zum 15. Lebensjahr fällt keine Kostenbeteiligungen an. Trifokal- und Gleitsichtbrillen dürfen von den gesetzlichen Krankenkassen nicht bezahlt werden. Brillen für besondere Einsatzbereiche Sonnenbrille Sonnenbrillen sind Lichtschutzbrillen und dienen dem Schutz der Augen vor den Auswirkungen übermäßig heller Sonneneinstrahlung und Reflexionen sowie schädlicher UV-Strahlen und werden dementsprechend in der Regel nur im Freien getragen. Die Gläser weisen dabei unterschiedliche Grade der Lichtdurchlässigkeit (Tönung) auf, die sich in bestimmten Fällen automatisch an die jeweiligen Helligkeitsverhältnisse anpassen können (phototrop). Üblich sind Filtertönungen von 25 %, 50 %, 65 %, 75 %, 80 % und 85 %, sowie Verlaufstönungen, die oben dunkel und unten hell sind. Solche Lichtschutzgläser können auch mittels einer speziellen Konstruktion bei Bedarf zusätzlich von vorne auf eine „normale“ Brille aufgesteckt und wieder abgenommen werden. Sonnenbrillen sind nicht geeignet, um die hoch stehende blendende Sonne gefahrlos beobachten zu können. Hierfür ist der Einsatz von Sonnenfinsternisbrillen nötig. Eine weitere Möglichkeit, Lichtreflexionen unterschiedlicher Flächen (zum Beispiel Wasseroberflächen oder Glasscheiben) zu absorbieren, stellen Polarisationsfolien dar. Hierbei macht man sich den Umstand zunutze, dass an dielektrischen Flächen reflektiertes Licht stark linear polarisiert ist. Die Folien werden in der Regel zwischen zwei dünne Trägerschichten geklebt und sorgen dafür, dass eine Lichtblendung nicht mehr gedämpft, sondern durch Reduzierung auf die zu der des reflektierten Lichts senkrechten Polarisationsrichtung eliminiert wird (siehe Wellenoptik). Bei einem anderen Verfahren (Infusion Molding) werden hierfür spezielle Polymere in die Brillengläser eingearbeitet. Der UV-Schutz ist weltweit durch unterschiedliche Normen und Richtlinien festgelegt, in Deutschland durch die Norm DIN EN 1836. Insbesondere in entsprechend disponierten Umgebungen, zum Beispiel im Hochgebirge, ist das Tragen von Lichtschutzbrillen (Schneebrille) zum Schutz vor erheblichen gesundheitlichen Beeinträchtigungen, wie Verblitzungen oder Schneeblindheit, unbedingt angeraten. Es gibt zudem Krankheiten, die mit einer erhöhten Licht- und Blendungsempfindlichkeit einhergehen und deshalb das regelmäßige Tragen einer Lichtschutzbrille auch in geschlossenen Räumen notwendig machen können. Hierzu zählt beispielsweise der Albinismus. Bildschirmarbeitsplatzbrille Bei einer normalen Gleitsichtbrille ist die mittlere Entfernung (in diesem Fall der Bildschirm) nur in einem sehr schmalen Bereich gut lesbar. Daher besitzen bei der Arbeitsplatzbrille die Gläser einen besonders breiten mittleren Bereich. Für den Alltag (z. B. beim Autofahren) ist diese Brille nicht geeignet, da der Fernbereich ungünstig hoch liegt. Sie ist also nur eine Zweitbrille für den Arbeitsplatz. Notwendig ist sie hauptsächlich für Leute, die ständig vor Monitoren sitzen. Die Gläser werden auch degressive Gläser oder Gleitsichtgläser für die Naharbeit genannt. Schminkbrille Eine Schminkbrille ist eine besonders konstruierte Korrektionsbrille für den Nahbereich, die durch einzeln klappbare Gläser bei Weitsichtigkeit oder Alterssichtigkeit ein scharfes Sehen gewährleistet und gleichzeitig ein ungehindertes Schminken desjenigen Auges ermöglicht, dessen Korrekturglas nach unten (seltener oben) geklappt ist. Mit einer normalen Brille würden die fest montierten Gläser den Zugang zu den gewünschten Augenpartien behindern, ohne sie wäre die Sehschärfe signifikant eingeschränkt. Die Gläserstärken einer Schminkbrille sollten etwa denen der individuellen Nahkorrektur entsprechen. Schutzbrillen Schutzbrillen werden in unterschiedlichen Lebensbereichen verwendet und sollen die Augen vor Verletzungen und schädlichen Einwirkungen, wie Chemikalien, Strahlung, Verblitzung, Funkenflug oder Fremdkörper schützen. Je nach Einsatzbereich können Schutzbrillen mit refraktiven Wirkungen ausgestattet werden (Korrektionsschutzbrille) und unterliegen bestimmten funktionalen und qualitativen Anforderungen, die teils von festgelegten Gütekriterien und Normen bestimmt werden. So schreiben neben der Europäische Norm EN 166 in Deutschland auch die in der BGR 192 (Berufsgenossenschaftliche Regeln für Sicherheit und Gesundheit bei der Arbeit) enthaltenen Grundsätze die Ausstattung und Beschaffenheit von Schutzbrillen im Arbeitsumfeld verbindlich vor. Im militärischen Bereich gibt es verschiedene Schutzklassen, nach denen die Beschaffenheit von Schutzbrillen definiert ist, und die zum Beispiel in der gebräuchlichen ANSI-Norm der Vereinigten Staaten oder dem NATO-Standard STANAG festgelegt sind. Zu den Schutzbrillen gehören auch verschiedene Sportbrillen, zum Beispiel Schwimmbrillen, Radfahrbrillen, Motorradbrillen oder die Paukbrillen, die beim akademischen Fechten mit scharfen Waffen getragen werden. Fallschirmspringerbrillen müssen hoher Luftgeschwindigkeit widerstehen, sind aus vier Blatt verbundener Kunststofffolie aufgebaut, damit flach zusammenfaltbar und bieten ein uneingeschränkt weites Gesichtsfeld. Dem Arbeitsschutz dienen eng bis dicht anliegende Brillen, die das Auge vor dem Hineinwirbeln von Partikeln schützen und zusätzlich Kälteschutz für die bedeckte Augenregion im Gesicht bieten. Vor das Gesicht herunterklappbare Visiere schützen das gesamte Gesicht vor Spritzern von Chemikalien, flüssigem Eisen oder infektiösem Material. Reflektierend (mit Gold) beschichtete Brillen reflektieren Wärmestrahlung von flüssigem Eisen am Hochofen oder beim Gießen selektiv. Schweißerschutzbrillen mit Klarglas und gummigepolsterten Alublechmuscheln mit orientierten Lüftungsschlitzen schützen vor Schweißspritzern, zusätzlich herunterklappbare dunkle Gläser reduzieren die Helligkeit der Weißglut beim Gasschmelzschweißen. Schweißschutzschirme waren ehemals handgehalten, sind heute jedoch schnell-helligkeitsgesteuert; sie dunkeln ab, sobald der Schweißlichtbogen zündet, so dass sie am Kopfband getragen werden können. Mit der Entwicklung kleiner, lichtstarker LEDs haben sich bei Zahnärzten Brillen, eventuell mit Lupeneinsatz, mit 1–2 LEDs vor der Nasenbrücke und Stromversorgung via Kabel und LiIon-Akku an der Kleidung bewährt. In ihrer Funktion als Lichtschutzbrillen zählen auch Sonnenbrillen und insbesondere Schneebrillen zu den Schutzbrillen. Bei den umstrittenen Rasterbrillen steht eine Schutzwirkung nicht im Vordergrund. Tauchmaske Die Tauchmaske ist ein Teil der Tauchausrüstung und gehört zur Grundausstattung eines Tauchers. Sie wird umgangssprachlich oft als Tauchbrille oder Taucherbrille bezeichnet, was in Bezug auf die Form falsch ist. Die Tauchmaske bedeckt die Nase mit einem Nasenerker, welcher den Druckausgleich während des Tauchgangs ermöglicht. Ohne diesen Druckausgleich droht beim Abtauchen die Gefahr eines Barotraumas. Das menschliche Auge ist an die optische Dichte von Luft (1,00) angepasst. Liegt umgebendes Wasser unmittelbar am Auge an, werden die Strahlen hier (entsprechend dem geringen Unterschied optischer Dichte) nur noch gering gebrochen und treffen sich nicht mehr im Brennpunkt auf der Netzhaut – der Taucher sieht verschwommen. Erst starke Akkommodation macht weit Entferntes scharf sichtbar. Der Luftraum innerhalb einer Tauchmaske ermöglicht eine Sehschärfe unter Wasser, die der an Land entspricht. Allerdings erscheinen Gegenstände durch den Brechungsindex 1,33 von Wasser in etwa 4:3 größerem Winkel, also größer oder näher. Eine Tauchmaske besteht aus einem weichen Gummi- oder Silikonkörper, in dem vorn eine plane Sichtscheibe eingesetzt ist. Es gibt Modelle mit einer einzigen Sichtscheibe und solche mit einer Sichtscheibe vor jedem Auge. Ein verstellbares Gummiband hält die Tauchmaske am Kopf. Brillenträger können eine Tauchmaske mit optisch geschliffenen Einsätzen verwenden oder aber Kontaktlinsen unter einer gewöhnlichen Tauchmaske tragen. Schwimmbrille Eine Schwimmbrille ist eine Sportbrille, die verhindert, dass Wasser die Augen umspült. Somit werden Augenreizungen zum Beispiel durch gechlortes Schwimmbadwasser verhindert. Auch das Sehen unter Wasser wird so komfortabler. Für das Schnorcheln sind Schwimmbrillen nur bedingt geeignet, weil die Scheiben der beiden Augen in einem Winkel zueinander stehen. Dadurch kann ein Objekt unter Wasser nur schwer mit beiden Augen fixiert werden. Im Gegensatz zur Tauchmaske findet kein Druckausgleich statt, weshalb sie zum Tauchen nicht geeignet ist. Maskenbrille Brillen mit Bügeln oder Haltebändern können nicht getragen werden, wenn eine Atemschutz-Vollmaske benutzt werden soll, da die Haltevorrichtungen Undichtigkeiten am Dichtrahmen der Maske verursachen. Deswegen werden spezielle Maskenbrillen verwendet, bei welchen die Gläser durch ein Gestell gehalten werden, das direkt in die Atemschutzmaske eingesetzt wird. Schießbrille Schießbrillen sind spezielle Korrektionsbrillen, die ausschließlich beim Schießsport mit Schusswaffen Verwendung finden. Sie weisen gegenüber normalen Brillen einige Besonderheiten auf, sind dabei auch als Augenschutz zulässig. Brillen mit besonderen optischen Eigenschaften Es gibt eine Reihe weiterer Brillentypen, deren Form und Beschaffenheit entsprechend ihrer Funktionalität sehr unterschiedlich ausfallen kann. Neben medizinischen, technischen und wissenschaftlichen Einsatzbereichen gewinnt hierbei auch die Unterhaltungselektronik an Bedeutung. Lupenbrille Eine Lupenbrille ist eine Kombination aus Korrektionsbrille und Lupe. Sie wird in Medizin und Technik für Tätigkeiten im Nahbereich genutzt, bei denen eine vergrößernde Darstellung notwendig ist. Sie dient zudem als vergrößernde Sehhilfe bei entsprechenden Erkrankungen des Auges. Hierzu gehört auch die Starbrille, die man früher nach der operativen Entfernung einer trüben Augenlinse, des Grauen Stars, als Korrektur und Ersatz für die entfernte Linse verordnet hat. Das hohe Gewicht sowie die optischen und kosmetischen Nebenwirkungen waren jedoch von erheblichem Nachteil, so dass solche Korrekturen heute nur noch in besonderen Ausnahmefällen verwendet werden. Eine gute Lupenbrille besitzt ein großes Sichtfeld, welches bis in die Randzone ein scharfes Bild ermöglicht, frei von farblichen Verzerrungen. Diese Merkmale sind nur durch qualitativ hochwertige optische Systeme zu erreichen. Dabei können die Gläser selbst bereits eine entsprechende Stärke aufweisen, oder es werden Lupenaufsätze auf die herkömmlichen Brillengläser aufgebracht. Prismenbrille Prismenbrillen werden in der Regel zu diagnostischen oder therapeutischen Zwecken bei latenten oder manifesten Schielerkrankungen eingesetzt. Sie sind zwar prinzipiell keine Korrektionsgläser, werden aber mit diesen kombiniert. Die in das Auge einfallenden Lichtstrahlen werden in die Richtung der Augenfehlstellung abgelenkt und reduzieren so besonders bei Augenmuskellähmungen das Auftreten von Doppelbildern. Ihre Anwendung stellt in der Regel einen massiven Eingriff in die Motorik und Sensorik des beidäugigen Sehens dar und sollte deshalb nur unter augenärztlicher Kontrolle erfolgen. Auch Korrektionsgläser ohne prismatische Wirkung sind ein wesentlicher Bestandteil der Schielbehandlung und können erheblichen Einfluss auf die Stellung der Augen nehmen. Prismengläser finden zudem bei experimentellen Untersuchungen der optischen Wahrnehmung in Umkehrbrillen Verwendung. Zunehmend macht man sich auch im privaten Bereich Umlenkprismen zu Nutze, bspw. in Form von Sicherungsbrillen bei der Sportkletterei. Frenzelbrille Eine spezielle medizinische Anwendung stellt die Untersuchung eines Nystagmus dar, die mit einer Frenzelbrille durchgeführt wird, benannt nach dem Göttinger Otologen Hermann Frenzel (1895–1967). Sie ist eine Leuchtbrille mit stark brechenden Linsen von +15,00 Dioptrien und ermöglicht eine genaue Beobachtung der Augenbewegungen, während eine von unten einstrahlende Beleuchtung jegliche Fixationsmöglichkeit des Probanden ausschaltet. 3D-Brille 3D-Brillen basieren auf dem Prinzip der Bildtrennung und sollen ein zweidimensionales, flaches Bild dreidimensional erscheinen lassen. Durch unterschiedliche Verfahren werden dabei dem rechten und linken Auge jeweils ein eigenes Bild dargeboten, was in der Regel einen räumlichen Seheindruck auslöst. In der Augenheilkunde werden damit zudem spezielle Untersuchungen des Binokularsehens durchgeführt. Zu den 3D-Brillen zählen zum Beispiel Polarisations-, Rot-Grün- oder Shutterbrillen. Videobrille Videobrillen sind Konstruktionen, die über keine Gläser oder sonstige Öffnungen zum Durchsehen verfügen, sondern mittels zweier sehr kleiner Monitore visuelle Informationen darbieten. Ihre Einsatzgebiete sind zum Beispiel experimentelle Bereiche, die Medizin, das Militär und vor allem die Unterhaltungsindustrie. Spezielle Brillen zum Erzeugen einer virtuellen Realität werden auch als Virtual-Reality-Brille (kurz: VR-Brille) bezeichnet. Brillen für die erweiterte Realität werden auch als Datenbrillen oder Smartglasses bezeichnet. Unterformen hiervon sind das EyeTap, die virtuelle Netzhautanzeige (auch Lichtfelddisplay) und spezielle Brillen zum Darstellen virtueller Hologramme wie die Microsoft HoloLens. Videobrillen, die zum Übertragen eines Bildes aus der Ich-Perspektive (englisch First Person View) eingesetzt werden, werden auch FPV-Brille genannt. Sie finden zum Beispiel Anwendung in der Steuerung von RC-Fahr- und Flugzeugen (siehe auch: FPV Racing). Obwohl die Form einer Videobrille teilweise mehr einem Headset mit Display gleicht, wird in der Umgangssprache häufig von einer Brille gesprochen. Brillengläser mit verstellbarer Brennweite Joshua D. Silver entwickelte im Jahre 2008 für die Verwendung in Entwicklungsländern eine mit Flüssigkeit gefüllte Brille mit verstellbarer Brennweite, deren Funktion auf der Verformung von durchsichtigen Kunststoffmembranen beruht. Hersteller, Handel und Bezugsquellen Das französische Unternehmen Essilor mit seiner Marke Varilux ist der weltweit größte Hersteller von Brillengläsern, gefolgt von der deutschen Carl Zeiss Vision, einem Tochterunternehmen von Carl Zeiss. Das Unternehmen Rodenstock ist ein bedeutender Hersteller von Brillenfassungen und -gläsern in Deutschland. Der Vertrieb der Korrektionsbrillen erfolgt meist über Fachhandwerksbetriebe von Augenoptikern mit ausgebildetem Personal. Dort stehen den häufig hohen Preisen qualifizierte Beratungs- und Dienstleistungen gegenüber, die für eine optimale Anpassung und Handhabung von Brillen erforderlich sind. Es gibt mittlerweile Fertigbrillen, industriell hergestellte Seh- bzw. Lesehilfen von einfacher Ausstattung und Qualität, die in Kaufhäusern oder anderen Verkaufsstellen als Massenware erhältlich sind und lediglich als preiswerte Ersatz- oder Notlösung oder als einfache Lesehilfen dienen sollen. Mit der Verbreitung des Internets haben sich in jüngster Vergangenheit Online-Shops etabliert, die Ein- und Mehrstärkengläser sowie Fassungen bekannter Marken und Hersteller teils deutlich günstiger anbieten als viele Fachgeschäfte und hinsichtlich der Produktqualität und des Preis-Leistungs-Verhältnisses einen starken Wettbewerb ausgelöst haben. Nachteilig ist jedoch auch hier der Mangel an notwendiger, qualitätsgesicherter Beratung und anderer Leistungen, wie Messung der benötigten Glasstärke, Überprüfung der Brillengröße hinsichtlich korrekten und komfortablen Sitzes usw. Auch dürfen Internetanbieter nicht mit dem Begriff „Optikerqualität“ werben. Gleichwohl haben in den frühen 1980er Jahren unter anderem neue Filialketten durch die Abkehr von den bis dahin festgefügten Preisstrukturen und durch massiven Wettbewerb für eine deutliche Kostenreduktion gesorgt, die seitdem die teils drastischen Gewinnspannen der Augenoptiker erheblich unter Druck bringen. Der Einzelhandel reagiert seit dem immer wieder mit temporär günstigen Angeboten oder Sonderaktionen. Korrektionslose Sport- und andere Spezialbrillen jedweder Art sind in der Regel über den entsprechenden Fachhandel oder Spezialanbieter erhältlich. Brillenpflege, Entsorgung und Weiterverwertung Die Pflege von Brillengläsern, Fassungen und anderen Bestandteilen ergibt sich in der Regel aus deren Materialien, wobei man auf aggressive Reinigungslösungen oder chemische Bestandteile wegen einer erhöhten Empfindlichkeit der Oberflächen verzichten sollte. Gläser sollten mit feuchten oder trockenen Brillenputztüchern gereinigt werden, bei gröberen Verschmutzungen oder Ablagerungen ggf. in einem Ultraschallreinigungsgerät. Brillen, die nicht mehr getragen werden, können mit dem Hausmüll entsorgt werden, da die verwendeten Materialien kaum umweltbelastende Stoffe enthalten. Alternativ können sie bei einem Augenoptiker abgegeben werden, der sie beispielsweise als Spende weiterleitet. Viele nationale und internationale Hilfsorganisationen haben entsprechende Projekte initiiert, um eine bessere Versorgung armer und bedürftiger Bevölkerungskreise auf der Welt zu ermöglichen. Zu den bekanntesten Aktionen zählt „Bring Deine Alte zurück!“ von der New Line Optik, die ab 2007 bei zahlreichen Augenoptikern Brillen gemeinsam mit König Céphas Bansah für Ghana gesammelt hat, aber auch „Brillen ohne Grenzen“ von der saarländischen Gudd-Zweck UG sammelt gemeinsam mit ihrem französischen Partner „L.S.F. Lunettes sans Frontiere“ gebrauchte Brillen. Die vom Deutschen Katholischen Blindenwerk e. V. getragene Aktion „Brillen Weltweit“ bietet seit Februar 2018 Sammelboxen an, die in Brillengeschäften aufgestellt werden können, um die Abgabe alter Brillen zu vereinfachen und die Bereitschaft zur Brillenspende zu fördern. Der Zentralverband der Augenoptiker (ZVA) befürwortet das Aufstellen der Sammelboxen. Gesellschaftliche und kulturelle Bedeutung Der gesellschaftliche und ökonomische Aspekt der Brille als eines Hilfsmittels, um Produktivität und Leistungsvermögen zu steigern, wurde bereits früh diskutiert. So hatte schon der Philosoph René Descartes (1596–1650) bemerkt: Die Brille gehört zu jenen Schlüsselerfindungen, die bereits im Mittelalter die spätere Überlegenheit Europas begründeten. Der Wirtschaftshistoriker David S. Landes weist in seinem Buch Wohlstand und Armut der Nationen darauf hin, dass die Erfindung der Brille die Lebensarbeitszeit in Berufen, bei denen es auf ein gutes Auge ankommt, mehr als verdoppelt hat. Das war zum Beispiel bedeutsam für Schreiber und Lektoren, Instrumenten- und Werkzeugmacher, Weber und Metallarbeiter. Eine Verdoppelung der Lebensarbeitszeit in spezialisierten technischen Berufen entsprach einer Verdoppelung der Facharbeiter, wobei der Zugewinn wegen der größeren Erfahrung der älteren Fachkräfte in Wirklichkeit noch größer ausfiel. Außerdem ermöglichten Brillen auch die Herstellung genauerer Werkzeuge – die Grundlage für die Entwicklung komplizierter Maschinen und den technischen Fortschritt. Nach Landes hatte Europa bei der Linsenherstellung fast 400 Jahre lang ein Monopol. Frühzeitig haben die Menschen damit begonnen, den rein funktionellen Eigenschaften eines optischen Hilfsmittels einen Aspekt der Verzierung und Ornamentik hinzuzufügen. Da die Brille an sehr prominenter Stelle getragen werden musste, sollte sie wenigstens schön und teils auch wertvoll aussehen. Mittlerweile ist die Brille als modisches Accessoire ein fester Bestandteil des persönlichen Erscheinungsbildes vieler Menschen. Dies geht so weit, dass selbst Brillen ohne jegliche Korrektionswirkung lediglich wegen ihrer auffälligen und schmückenden Fassungen getragen werden. Häufig betrifft dies Sonnen- und Lichtschutzbrillen. Für viele prominente Persönlichkeiten ist die Brille nicht nur Mittel zum Zweck, sondern sie prägte in erheblichem Umfang ihr Auftreten und Erscheinungsbild in der Öffentlichkeit, wurde so zu ihrem Markenzeichen oder sorgte doch zumindest für einen gewissen Wiedererkennungswert. Fast alle Bereiche des öffentlichen Lebens wie Politik, Gesellschaft, Musik-, Film- und Modeindustrie haben bekannte Brillenträger hervorgebracht. Zu ihnen zählen unter anderem Bertolt Brecht, Elton John, Buddy Holly, Ray Charles, Heino, Nana Mouskouri, Karl Lagerfeld, Groucho Marx, Woody Allen, der 14. Dalai Lama Tendzin Gyatsho oder Gandhi. Selbst seriöse Institutionen fördern diese Entwicklung. So kürt in Deutschland das Kuratorium Gutes Sehen seit dem Jahr 2000 regelmäßig den Brillenträger des Jahres, um bekannte Persönlichkeiten für ihre Vorbildfunktion in puncto Brille auszuzeichnen. Brillen gelten zum Teil auch noch immer als Zeichen von Intelligenz und Intellektualität, im positiven wie im negativen Sinne. Diese Vorurteile entstammen vermutlich einer Zeit, in der sich nur wirtschaftlich Bessergestellte eine Brille leisten konnten. Diese hatten die finanziellen Möglichkeiten zu höherer Bildung. Noch in den 1970er Jahren führte dies beispielsweise in Kambodscha dazu, dass Brillenträger unter der Herrschaft der Roten Khmer als vermeintlich Intellektuelle und somit potenzielle Feinde des kommunistischen Bauernstaates verfolgt und in vielen Fällen getötet wurden. Brillen (vor allem Hornbrillen) sind zudem häufig mit dem Stereotyp und Klischee von einem Bücherwurm, Computerfreak, Nerd oder Geek verbunden, was unter anderem durch die Darstellung in Film und Fernsehen bestärkt wird. In einer Retrowelle wurden ähnliche Hornbrillen zunächst spöttisch als Nerd-Brillen betitelt, kurze Zeit später aber auch im Handel unter diesem Namen angeboten und erfuhren noch größere Verbreitung und Aufmerksamkeit. Weiterhin tauchen Brillen als Symbol für eine bestimmte Sichtweise auf, was sich auch im Sprachgebrauch spiegelt. Die rosarote Brille steht dabei für eine idealisierende und teils irreale Bewertung, wie sie insbesondere in einer Liebesbeziehung für Träumer und Romantiker typisch ist. Ein ganz anderes Beispiel aus der Literatur ist die Figur Beckmann aus Wolfgang Borcherts Draußen vor der Tür, deren Gasmaskenbrille eigentlich ein dringend benötigtes Hilfsmittel ist, jedoch immer wieder für Aversionen sorgt und als Symbol für eine durch die Kriegserfahrungen bestimmte Wahrnehmung der Welt gilt. Brillen können wie auch andere Gegenstände eine sexuelle Anziehung haben und zu einem sexuellen Fetischismus werden (Brillenfetischismus). In Anime und Manga werden weibliche Charaktere, die sexuelle Attraktivität durch das Tragen einer Brille erlangen, auch als Meganekko bezeichnet. Auch in der Heraldik ist die Brille zu finden, so auf den Ortswappen von Bischofsheim (Mainspitze) oder Darmstadt-Arheilgen. Museen und Ausstellungen in Europa Das Deutsche Optische Museum in Jena präsentiert in seiner Dauerausstellung neben der Vielfalt optischer Instrumente auch die Entwicklung von Sehhilfen und Brillen. Das Museum verfügt über eine der umfangreichsten Brillensammlungen Europas. Zahlreiche Exponate ermöglichen in Verbindung mit Grafiken und weiterem Quellenmaterial einen umfassenden Einblick in die Geschichte der Sehhilfen. Das „ZEISS Museum der Optik“ in Oberkochen hat eine umfangreiche Brillensammlung aus siebenhundert Jahren. Zu sehen sind u. a. eine Schläfenbrille aus Horn des österreichischen Kaisers Franz Joseph I. (1830–1916) und eine Metallbrille des deutschen Lyrikers Eduard Mörike (1804–1875). In Hamburg betreibt Augenoptiker und Sammler Karl-Heinz Wilke ein Brillenmuseum. Er ist Mitglied im „Ophthalmic Antiques International Collectors’ Club of London“ und eröffnete sein erstes Brillenmuseum 1990 in Pöselsdorf. Im französischen Ort Morez, der für seine optische Industrie bekannt ist, wird ein umfangreiches Brillenmuseum in einem eigens dafür erbauten Gebäude betrieben. In dem kleinen italienischen Ort Pieve di Cadore gibt es ein Brillenmuseum, dessen Grundlage eine aus Brüssel stammende Sammlung von 1600 Brillen darstellt. Literatur Theodor Axenfeld, Hans Pau: Lehrbuch und Atlas der Augenheilkunde. Unter Mitarbeit von R. Sachsenweger u. a. Gustav Fischer Verlag, Stuttgart 1980, ISBN 3-437-00255-4. Klaus Bergdolt: Die Erfindung und Verbreitung der Brille im Spätmittelalter. In: Medizinhistorisches Journal. Band 29, 1994, S. 111–120. Susanne Buck: Der geschärfte Blick. Eine Kulturgeschichte der Brille seit 1850. Dissertation Philipps-Universität Marburg 2002. Anabas, Frankfurt 2006, ISBN 3-87038-347-X. Franz Daxecker, Annamarie Broucek: Eine Darstellung der hl. Ottilie mit Lesesteinen. In: Gesnerus. Band 52, 1995, S. 119–122. Franz Daxecker: Representations of eyeglasses on Gothic winged altars in Austria. In: Documenta Ophthalmologica. Band 93, 1997, S. 169–188. Ulrich Faure (Hrsg.): Die Brille des Autors. Anthologie (28 bekannte Autoren mit Auszügen aus ihren Werken). Axel Dielmann, Frankfurt 1997, ISBN 3-929232-30-8. Pamela F. Gallin (Hrsg.): Pediatric Ophthalmology. Thieme, New York 2000, ISBN 0-86577-768-3. Richard Greeff: Die Erfindung der Augengläser. Kulturgeschichtliche Darstellung der Quellen (= Optische Bücherei. Band 1). Verlag Max Ehrlich, Berlin. Herbert Kaufmann (Hrsg.): Strabismus. Unter Mitarbeit von W. de Decker u. a., 3., überarbeitete Auflage. Georg Thieme, 2003, ISBN 3-13-129723-9. Kerstin Kruschinski, Petra Waldminghaus: Lebensgefühl Brille. DOZ-Verlag, Heidelberg 2014, ISBN 978-3-942873-27-7. Bernhard Lachenmayr, Dieter Friedburg, Erwin Hartmann, Annemarie Buser: Auge – Brille – Refraktion: Schoberkurs: verstehen – lernen – anwenden. 4. Auflage. Georg Thieme, Stuttgart 2006, ISBN 3-13-139554-0. Heinz Herbert Mann: Augenglas und Perspektiv. Studien zur Ikonographie zweier Bildmotive (= Studien zur Profanen Ikonographie. Band 1). Gebr. Mann, Berlin 1992, ISBN 3-7861-1570-2. Sabine Walter, Henry Hagenfall: Die Brille im Film. Epubli.de, Berlin 2014, ISBN 978-3-7375-2229-8. Buch über die Symbolik der Brille im Film. Stefana Sabin: Augenblicke. Eine Kulturgeschichte der Brille. Göttingen 2019. Dokumentation Geschichte schreiben - Die Brille, Wissen ist Macht. Regie: Tamara Erde. ARTE F, Frankreich, 17 Minuten, 2020 Weblinks Kulturgeschichte der Brille. monumente-online.de Brillengeschichte mit Beispielfotos. brillenmuseum.eu augeninfo.de, Bundesverband der Augenärzte Deutschlands (BVA), Deutsche ophthalmologische Gesellschaft (DOG) sehen.de, Kuratorium Gutes Sehen e.V. (KGS) Pressemitteilung zur Verbesserung der Versorgungsleistungen bei Brillen. Gemeinsamer Bundesausschusses, 16. Oktober 2008 Wie die Brille auf die Nase kam? Zur Geschichte von Brillen bzw. Seh- und Lesehilfen. spektrum.de Einzelnachweise Therapeutisches Hilfsmittel in der Augenheilkunde Hilfsmittel (Rehabilitation) Mode
Q37501
92.896565
21907
https://de.wikipedia.org/wiki/Bosniaken
Bosniaken
Bosniaken (, Sg.: , auch Bosnische Muslime) sind eine südslawische Ethnie mit etwa drei Millionen Angehörigen, davon über zwei Millionen primär in Bosnien und Herzegowina, aber auch in Serbien und Montenegro (Sandžak). Die Bosniaken im Kosovo und in Albanien bilden eine ethnische Minderheit. Ethnische Säuberungen während des letzten Krieges haben ihre ethnische Struktur und Verteilung in Bosnien und Herzegowina sehr verändert. Über eine Million ausgewanderter oder während des Bosnienkrieges geflüchteter Bosniaken leben heute verteilt auf der ganzen Welt, insbesondere in der Türkei, Deutschland, Österreich, Schweiz, Schweden, Norwegen, Australien, Kanada und den USA (insbesondere in St. Louis). Die meisten Bosniaken sprechen Bosnisch, eine Standardvarietät des Serbokroatischen. Sie sind seit dem 15. und 16. Jahrhundert mehrheitlich zum Islam konvertiert. Als slawische Muslime mit Hauptsiedlungsgebiet Bosnien werden die Bosniaken auch einfach als Bosnier bezeichnet, wobei diese Bezeichnung auch die Staatsangehörigen des Gesamtstaates Bosnien und Herzegowina oder die Einwohner des Landesteils Bosnien bezeichnen kann. Ethnonym Herkunft des Landesnamens Die slawischen Siedler, welche im Zuge der Landnahme der Slawen auf dem Balkan im heutigen Bosnien und Herzegowina siedelten, übernahmen den Namen ihrer neuen Heimat von den einheimischen Illyrern, im Gegensatz zu den Kroaten und Serben, welche die neue Heimat nach sich selbst benannten (Kroatien, Serbien). Die Illyrer nannten ihr Land nach dem Oberlauf des Flusses Bosna, dessen alter Name nicht mehr bekannt ist. Man geht aber davon aus, dass der Flussname auch bei den Illyrern die Wurzel „Bos“ enthielt. Die früheste heute bekannte Nennung des Flusses stammt aus dem Jahr 8 unserer Zeitrechnung von Velleius Paterculus im Rahmen seiner Beschreibung des Großen Aufstandes in den Jahren 6 bis 9, in der von der Niederlage der pannonischen Einheiten am 3. August des Jahres 8 in der Nähe des Flusses Bathinus flumen die Rede ist. Eine weitere lateinische Bezeichnung ist Basan. Diese Namen entstammen aber wie auch der Name Bosna der ursprünglichen illyrischen Bezeichnung. Die früheste Nennung des Landesnamens stammt von Konstantin Porphyrogenitus aus dem 10. Jahrhundert (cwrinon Bosona). Bošnjani (Mittelalter) Aus dem Landesnamen entstand später die Bezeichnung Bošnjani (Sg.: Bošnjanin; lat. Sg.: Bosnensis; ital. Pl.: Bosignani), mit der die Einwohner des Territoriums des frühen spätmittelalterlichen Bosniens bezeichnet wurden. Je nach politischem Motiv wurden die Bewohner der neu eroberten Gebiete auch als Bošnjani bezeichnet. Ob es einen Zusammenhang zwischen der Religionszugehörigkeit und dem Ethnonym gab, ist umstritten. Eines der ältesten Dokumente, das die Bezeichnung Bošnjani verwendet, stammt von Stjepan II. Kotromanić um das Jahr 1322, dort heißt es: „dobri Bošnjani“ (deutsch gute Bošnjane/Bosnier/Bosniaken). Das Ethnonym wurde zu dieser Zeit fast immer mit dem Adjektiv gut verbunden. Bošnjaci (Osmanisches Reich) Mit der Eroberung durch das Osmanische Reich kam es langsam zu einer Änderung der bosnischen Sprache; Wörter mit den Endungen „-ak“ wurden häufiger gebraucht (wie Poljak oder Slovak). Mit der Stabilisierung der osmanischen Herrschaft wurde Bošnjanin von Bošnjak (pl.: Bošnjaci) abgelöst. Während der osmanischen Herrschaft wurde die gesamte Bevölkerung Bosniens als Bošnjaci bezeichnet. Im Zuge der kroatischen und serbischen Nationalbewegungen des 19. Jahrhunderts bezeichneten sich katholische und orthodoxe Einwohner Bosniens zunehmend als Kroaten bzw. Serben. Eine echte Eigenbezeichnung der heutigen Bošnjaci gab es zu dieser Zeit nicht, da es auf muslimischer Seite zunächst keinen Nationalismus in dem Sinne gab. Man fühlte sich als Teil einer großen islamischen Gemeinschaft. Bošnjaci lebten während dieser Periode überwiegend im Eyâlet Bosnien. Muslimani (Österreich-Ungarn) Nach dem Okkupationsfeldzug und somit dem Beginn der Herrschaft Österreich-Ungarns wurde von den Besatzern der Begriff Muhamedanci oder Muhamedovci (Muhammedaner) verwendet, mit dem sich aber die Bosniaken nicht anfreunden konnten. Die Bevölkerung bezeichnete sich weiterhin als Bošnjak oder Turčin (Türke), wobei letzteres als Eigen- und Fremdbezeichnung von Muslimen auf dem ganzen Balkan verwendet wurde. Gleichzeitig kam der Begriff Musliman (Muslim) auf. Im Österreich-Ungarischen Militär wurde jedoch von je her der Begriff „Bosniaken“ verwendet. Im Jahre 1900 wurde dann offiziell Muhamedanci durch Musliman ersetzt, was die Bevölkerung dann auch akzeptierte. Jugoslawien Zur Zeit des Königreichs Jugoslawien wurde die Existenz eines eigenen Volkes bestritten, man konnte sich bei den Volkszählungen in keiner Weise als Bošnjak oder Muslim bezeichnen. Stattdessen standen die Optionen „muslimischer Kroate“ und „muslimischer Serbe“ zur Verfügung, welche jedoch von führenden bosnischen Politikern wie dem Präsidenten der Jugoslawischen Muslimischen Organisation Mehmed Spaho abgelehnt wurden. Auch zur Zeit des sozialistischen Jugoslawien wurde die Existenz einer eigenen Ethnie zunächst bestritten; bei der ersten Volkszählung 1948 konnte man sich nur als Srbin-musliman (muslimischer Serbe), Hrvat-musliman (muslimischer Kroate) oder neopredjeljen-musliman (ethnisch indifferenter Muslim) bezeichnen. 1953 wurden alle Optionen, sich als Muslim zu bezeichnen – in welcher Form auch immer – gestrichen. Stattdessen wurde der Begriff Jugoslawe eingeführt. 1961 wurde Musliman jugoslovenskog porijekla (Muslim jugoslawischer Herkunft) vorgegeben. 1968 schließlich wurden – im Zuge einer beginnenden allgemeinen Dezentralisierung des Staates – die Muslime im ethnischen Sinn zum sechsten jugoslawischen Staatsvolk erklärt. Ab 1971 konnte man sich bei Volkszählungen als Musliman u smislu narodnosti (Muslim im ethnischen Sinn) bezeichnen. Gegenwart Als ab 1989 der Zerfall Jugoslawiens begann, erfolgte eine Rückbesinnung auf den alten Begriff Bošnjak. Ab 1993 wurde er in Bosnien wieder offiziell verwendet; seitdem identifizieren sich hauptsächlich Bevölkerungsgruppen muslimischer Herkunft von Bosnien und Herzegowina und des Sandschaks mit dem Begriff sowie viele muslimische südslawische Minderheiten in Südosteuropa. Dabei ist es unerheblich, ob es sich um praktizierende Muslime handelt oder solche, die kulturell und familiär einen muslimischen Hintergrund haben. Es gibt auch Goranen, die sich als Bosniaken sehen. Heute sind die Bošnjaci verfassungsmäßig eines der drei konstitutiven Völker von Bosnien und Herzegowina. Für die Ergebnisse der Volkszählung im Oktober 2013 wurde im Vorfeld erwartet, dass sich ein nennenswerter Anteil der bosnischen Einwohner als Bosnier oder Herzegowiner identifiziert, also eine territoriale anstatt ethnische Bezugsgröße wählen könnte. Je nach Größe dieser Gruppe würde dies das im Dayton-Vertrag etablierte Proporzsystem zwischen den drei „offiziellen“ Ethnien des Landes in Frage stellen. Die Bosniaken stellen heute mit 50,11 % die Mehrheit der Bevölkerung. Die heutige, moderne Bezeichnung für alle Einwohner des Staates Bosnien und Herzegowina lautet – unabhängig von deren ethnischer Zugehörigkeit – Bosnier (Bosanci). Geschichte Mittelalter Der West-Balkan wurde durch den byzantinischen Herrscher Justinian I. von den Barbaren zurückerobert. Slawen (Sclaveni) überfielen den Balkan, einschließlich auch Bosnien im 6. Jahrhundert. De Administrando Imperio (ca. 960) erwähnte Bosnien (Βοσωνα/Bosona) als kleines Land (χοριον Βοσωνα/horion Bosona) und als Teil Serbiens. Der amerikanische Historiker John Van Antwerp Fine Jr. glaubt, dass der westliche Teil Bosniens zu Kroatien und der östliche Teil zu Serbien gehörte. Nach dem Tod des serbischen Gespanen Časlav Klonimirović (ca. 927–960) schien Bosnien immer mehr politisch unabhängiger von Serbien zu werden. Bulgarien griff kurze Zeit später, zur Jahrhundertwende, Bosnien an, welches dann Teil des Byzantinischen Reiches wurde. Im 11. Jahrhundert war Bosnien Teil des südslawischen Staates Duklja. 1137 annektierte das Königreich Ungarn die Region Bosniens, verlor es kurze Zeit an das Byzantinische Reich, bevor es die Region in den 1180er wieder zurückgewinnen konnte. Nach mehrfachen Wechseln zwischen regionalen Mächten entstand ein unabhängiger bosnischer Staat im 12. Jahrhundert unter ungarischer Oberhoheit. Banat Bosnien und die bosnische Kirche Christliche Missionierungen, ausgehend aus Rom und Konstantinopel, hatten seit dem 9. Jahrhundert auf dem Balkan ihren Lauf genommen und etablierten die katholische Kirche in Kroatien, während die orthodoxe Kirche in Bulgarien, Makedonien und in den meisten Teilen Serbiens errichtet wurde. Bosnien, welches dazwischen liegt, blieb als Niemandsland. Im 12. Jahrhundert waren wahrscheinlich die meisten Bosnier in einer nominellen Form des Katholizismus beeinflusst, gekennzeichnet durch einen weit verbreiteten Analphabetismus in der Bevölkerung und mangelnden Kenntnissen in Latein unter den bosnischen Geistlichen. Um diese Zeit gründete der bosnische Ban Kulin die bosnische Kirche. Ihre Anhänger wurden meistens als Dobri Bošnjani (gute Bosnier), Bošnjani (Bosnier), Krstjani (Christen), dobri mužje (gute Männer) oder als dobri ljudi (gute Menschen) bezeichnet. Die späteren Besatzer, die Osmanen, nannten sie Kristianlar, während sie die katholische und orthodoxe Bevölkerung als gebir oder kafir (Ungläubige) bezeichneten. Königreich Bosnien Der bosnische Staat wurde durch die Herrschaft Stjepan II. Kotromanićs deutlich gestärkt (ca. 1318–1353), welcher die Beziehung Bosniens zu Ungarn besserte und den Staat erweiterte. Er eroberte westlichere und östlichere Gebiete um Bosnien, was zur Folge hatte, dass mehr Katholiken und Orthodoxe Christen in seinem Reich lebten. Dazu eroberte er das von den Nemanjiden gehaltene Zahumlje. In den 1340ern wurden Franziskaner nach Bosnien gegen eine vermeintliche Häresie eingeführt. Davor gab es noch keine Katholiken, oder zumindest keine katholische Organisation in Bosnien für ein ganzes Jahrhundert. Stjepan II. war auch der erste bosnische Herrscher, welcher den Katholizismus im Jahr 1347 angenommen hat. Fast alle Herrscher Bosniens waren von da an katholischen Glaubens, ausgenommen Stjepan Ostoja, der immer noch enge Bindungen zur bosnischen Kirche hatte. Der bosnische Adel wird später einen Schwur ablegen, ketzerische Organisationen zu unterdrücken, dennoch blieb Bosnien in Wirklichkeit bis zur osmanischen Besatzung multireligiös und wurde oft durch die Toleranz zwischen den verschiedenen Glaubensrichtungen charakterisiert. In den 1370ern entwickelte sich das Banat Bosnien zum mächtigen Königreich Bosnien infolge der Krönung Tvrtko I. zum ersten König Bosniens im Jahr 1377. Sein Königreich expandierte in die serbischen und kroatischen Nachbarländer. Doch selbst mit dem Aufkommen eines Königreiches tauchte keine konkrete bosnische Identität auf; religiöse Pluralität, unabhängig gesinnter Adel und ein zerklüftetes bergiges Gelände verhinderten kulturelle und politische Einheit. Wie Noel Malcolm, ein englischer Historiker, erklärte: „Alles, was man vernünftigerweise über die ethnische Identität der Bosnier sagen kann, ist dies: Sie waren die Slawen, die in Bosnien lebten.“ Osmanische Herrschaft und Islamisierung Bosnien stand seit 1463 unter osmanischer Herrschaft. Unter den Bauern wie unter den Vertretern des Adels spielte zuvor das Bogomilentum eine bedeutende Rolle, seit der bosnische Herrscher Ban Kulin 1199 zum bogomilischen Glauben konvertiert war, um sich dem ungarisch-katholischen Einflussbereich des Erzbistums Spalato zu entziehen. Die von den Bogomilen zwar beeinflusste, aber stärker hierarchisierte Bosnische Kirche wurde im 13. Jahrhundert Staatskirche, war jedoch bereits im 15. Jahrhundert durch die Mission der Franziskaner ausgeblutet. Die Islamisierung einer starken Minderheit der Bevölkerung nach 1463 erfolgte sehr langsam; sie ging vor allem auf den freiwilligen Übertritt des Adels, der Grundbesitzer und anderer regionaler Eliten zum Islam zurück, da sie ihre Führungspositionen behalten und Tributzahlungen (Fremdensteuer) vermeiden wollten. Jedoch hießen insbesondere die Bogomilen, die von der Katholischen Kirche in mehreren Kreuzzügen als Ketzer verfolgt und teils an Sklavenhändler ausgeliefert wurden, die türkische Herrschaft willkommen und traten rasch zum Islam über. Wohl auch aufgrund von Glaubensähnlichkeiten und wegen der antifeudalen Tendenzen im Bogomilentum gab es Massenkonversionen zum Islam. Die türkische Eroberung, die auch die Vorherrschaft der Großgrundbesitzer brach, stellte so in gewisser Hinsicht eine „Befreiung der Armen“ dar. Sowohl in Österreich-Ungarn seit 1900 als auch im späten Jugoslawien Titos seit etwa 1960 wurde ein „Bogomilen-Mythos“ gepflegt, um die Herkunft der Muslime als staatstragender Schicht in Bosnien direkt aus dem bogomilischen bosnischen Adel herleiten zu können. Zwar hatte es bis zum 13. Jahrhundert bereits eine Zuwanderung ungarischer Ismailiten gegeben, doch spielte die nach 1453 einsetzende Zuwanderung von Verwaltungsbeamten und Händlern aus anderen Regionen des Osmanischen Reichs kaum eine Rolle für die Islamisierung. Viele serbische Landbewohner hingen weiter dem orthodoxen Glauben an, ein Teil der Stadtbürger an der Küste und an der Save blieb römisch-katholisch. Erst im 17. Jahrhundert war Bosnien mehrheitlich islamisiert. Die osmanische Verwaltung unterstützte zunächst die orthodoxe Kirche, weil sie in den Katholiken einen verlängerten Arm des Papsttums sahen, und begünstigte sogar die Konversion vom katholischen zum orthodoxen Glauben. Der orthodoxen Kirche wurden zahlreiche Kirchenneubauten genehmigt, der katholischen Kirche nur Reparaturen. Den in Bosnien lebenden Christen und Juden wurden wie im gesamten Osmanischen Reich im Rahmen des Millet-Systems bestimmte Rechte zugebilligt; im Gegenzug wurde den Angehörigen diesen Schutzbefohlenen eine besondere Steuer, die cizye, auferlegt und das Tragen von Waffen untersagt. Unter dem Dach der Millets konnten sich verschiedene Ethnien versammeln. Die Millets erhöhten den politischen Einfluss des Klerus der verschiedenen Glaubensrichtungen, der auch weltliche Aufgaben wie die Eintreibung der Steuern übernahm, und wurden zum Kristallisationskern kollektiver Identitäten. Selbst die Muslime bezeichneten sich teilweise als islamski millet. Österreich-Ungarn Nach dem osmanischen Staatsbankrott und Unruhen der christlichen Bevölkerung forderte Österreich-Ungarn vom Osmanischen Reich die Gewährung von Religionsfreiheit für die bosnische Bevölkerung und eine Agrarreform. Letztere wurde aber auch nach der österreichisch-ungarischen Okkupation von 1878 nicht konsequent umgesetzt. Es kam zu mehrjährigen Unruhen, weshalb die politische und grundbesitzende Elite der muslimischen Bosniaken für die Kooperation mit der Besatzungsmacht gewonnen werden sollte. Daher wurde ihre dominierende soziale Stellung nicht infrage gestellt, ihre Mitglieder waren oft als höhere Verwaltungsbeamte tätig, was die sozialen Konflikte vor allem mit der serbischen Bauernschaft verstärkte. Allerdings richtete die österreichische Verwaltung die völlig neue Institution eines geistlichen Oberhaupts für die bosnischen Muslime, den Reis-ul-ulema, sowie einen obersten geistlichen Rat ein. Das rief den Widerstand der konservativen Geistlichkeit hervor, der sich zu Beginn des 20. Jahrhunderts verschärfte, und auch die muslimischen Großgrundbesitzer und Verwalter der zahlreichen frommen Stiftungen (Vakuf) machten nun Front gegen die allerdings zögerlichen Pläne einer Verwaltungsmodernisierung und Erneuerung des Bildungssystems. Seit 1882 wurden die Muslime zum Militärdienst herangezogen. Auf Wunsch der Osmanischen Regierung wurde die Eidesformel angepasst und die Muslime leisteten den Eid getrennt von den anderen bosnischen Soldaten. Das Versprechen gegenüber Gott wurde zudem an die Pflichten gegenüber dem Kaiser gekoppelt, um die Loyalität zur Monarchie zu stärken. Der Bildungsstand der Bosniaken war relativ schlecht. Ein von Europa beeinflusster Literaturbetrieb, der aber lange die Spuren des Sufismus trug, entwickelte sich nur allmählich. 1898 erschien der erste Roman eines bosnischen Muslims (Zeleno busenje von Edhem Mulabdić). Anders als im gut ausgebauten katholischen Bildungssystem der Kroaten wurden muslimische Mädchen selten in die Schule geschickt. Mischehen waren relativ selten und kamen fast nur in Städten vor. In der Regel trat die Ehefrau der Glaubensrichtung ihres Mannes bei. 1899 eskalierten muslimische Proteste wegen der angeblichen Zwangskonversion einer Muslima zum Katholizismus. Aber auch serbisch-orthodoxe und katholische Priester sahen Mischehen als Bedrohung ihres Glaubenssystems an. Ein Hauptarchitekt der Nationalitäten- und Religionspolitik war der österreich-ungarische Finanzminister Benjámin Kállay, der die Bosniaken als eigene, nicht nur religiös definierte Ethnie förderte. Die durch die Modernisierungs- und Infrastrukturpolitik (Schulen, Bahn, Post usw.) stark vermehrte ortsansässige niedere Beamtenschaft waren wohl die wichtigsten Träger eines ethnisch begründeten Identitätsgefühls. Nach der endgültigen Annexion Bosniens im Jahr 1908 wurde 1910 ein Landtag in nach Religionszugehörigkeit getrennten Kurien gewählt. Damals zählte die muslimische Bevölkerung ca. 650.000, also etwa ein Drittel der Gesamtbevölkerung Bosniens. Seit 1909 wurden Entwürfe eines Islamgesetzes diskutiert, die einerseits die Gleichstellung des Islam nach hanefitischem Ritus mit den anderen Religionen anstrebte, jedoch Vorbehalte gegenüber einzelnen Einrichtungen und Gebräuchen machte, die nicht den staatliche Gesetzen entsprachen (Polygamie usw.), schließlich aber auch die Hauptregeln des islamischen Eherechts (Scheidung usw.) erhalten wollten. Das für damalige Verhältnisse wegweisende Islamgesetz wurde 1912 erlassen; es galt in Österreich bis ins Jahr 2015. Für die Habsburgermonarchie stellte eine erfolgreiche Modernisierung Bosniens eine Nagelprobe dar, die – wenn sie denn erfolgreich gewesen wäre – ein Beispiel für die Beruhigung der Beziehungen zwischen verschiedenen Religionen und Ethnien im Vielvölkerstaat hätte darstellen können. Jedoch war sie wohl zum Scheitern verurteilt, vor allem weil hier eine jahrhundertelang staatstragende bosniakische Aristokratie nun als kompakte Minderheit in einen fremden Staat eingebunden werden sollte. Der Versuch, die muslimische Bevölkerung von ihrer Geistlichkeit zu trennen, führte daher zur Politisierung der Bosniaken. So mündete der Konfessionalismus trotz einer weitgehend reichstreuen Beamtenschaft in einen religiös legitimierten Nationalismus; die religiösen Konflikte wurden ethnisiert und es kam zur Bildung dreier getrennter ethnisch-religiöser Gruppen. Insbesondere nach dem Attentat von Sarajevo entstand unter den Bosniaken eine nationalistische Bewegung, wobei auch die Frage der Bodenverteilung nicht unerheblich war. Bereits vor dem Ersten Weltkrieg wurde die Zuverlässigkeit slawischstämmiger Soldaten in der k.u.k.-Armee in Frage gestellt. Daher wurden serbische Mannschaften unter die als treu geltenden bosniakischen und kroatischen Truppen der bosnischen Regimenter gemischt. Im Ersten Weltkrieg zeichneten sich die bosnischen Truppen im österreich-ungarischen Heer dennoch insgesamt durch Loyalität und Tapferkeit aus. Den Bosniaken wurde erlaubt, ihre Speisevorschriften zu befolgen und den roten Fes zu tragen. So wurde Österreich zum größten Fes-Produzenten der Welt. Der Kampf der Bosniaken für den Kaiser wurde übrigens von den politischen und religiösen Vertretern der muslimischen Welt als Dschihad, als heiliger Krieg, legitimiert. Besonders die verlustreiche Erstürmung des strategisch wichtigen Monte Meletta-Fior am 7. Juni 1916 brachte ihnen viel Ruhm ein. Die Desertationen zur Jahreswende 1914/15 gehen weitgehend auf die Nachrichten zurück, die serbische Soldaten der bosnischen Regimenter über österreichische Vergeltungsaktionen an serbischen Zivilpersonen erhielten. Erst gegen Ende des Krieges kam es verstärkt zu Desertionen der bosniakischen Mannschaftsdienstgrade, worauf man die bosniakischen Truppen mit Polen und Ruthenen mischte. Die Truppen waren durch Hunger und Krankheiten wie Malaria geschwächt. Wer desertierte und aufgegriffen wurde, musste dem eine „Belohnung“ zahlen, der ihn gefunden hatte. Bei dreimaligem Verstoß wurde Tod durch Erschießen angeordnet. Offiziell starben 10.000 bosnische Soldaten im Ersten Weltkrieg, doppelt so viele blieben vermisst, über 18.000 wurden gefangen genommen und etwa 50.000 verletzt. Anderen Quellen zufolge kamen mindestens 38.000 bosnisch-herzegowinische Soldaten ums Leben. Königreich Jugoslawien und Zweiter Weltkrieg Bald nach der Gründung Jugoslawiens setzten nationalistische Spannungen ein. Die slawischen Muslime und Mazedonier wurden nicht als eigenständige Teile der südslawischen Nation angesehen, sondern offiziell als muslimische Serben bzw. Südserben geführt. Zugleich beanspruchten die Kroaten die Bosniaken als Teil ihrer Nation. Daher regte sich bei Muslimen wie bei mazedonischen Slawen und Slowenen Widerstand gegen die unitarische Auffassung von der einen jugoslawischen Nation. Die politische Organisation der Muslime, die Jugoslawische Muslimische Organisation unter Džafer Kulenović (Džafer-beg Kulenović), einem politischen Vertreter der pro-kroatischen Muslime, war bald isoliert und wurde von den Serben bekämpft. Nach der Ausrufung der Königsdiktatur Alexanders I. im Jahr 1929 wurde sie wie alle anderen Parteien auch verboten. 1939 wandte sich Kulenović gegen eine ethnische Teilung Bosniens, die der jugoslawische Staat mit dem erweiterten Autonomiestatut für Kroatien anstrebte. Nach dem deutschen Einmarsch wurde das bosnische Territorium unter die Kontrolle des Unabhängigen Staates Kroatien gestellt; die Bosniaken wurden zu Kroaten mit islamischer Religion. Ein Teil der muslimischen Politiker, so auch Kulenović, akzeptierte die Zusammenarbeit mit den Ustascha-Behörden und eine Autonomie innerhalb Kroatiens. Džafer Kulenović wurde im April 1941 von Ante Pavelić zu seinem Beauftragten für Bosnien ernannt. Im November 1941 wurde er als Nachfolger seines Bruders Osman Kulenović kroatischer Vizepräsident. Džafer Kulenović ging radikal gegen bosnische Serben und Juden vor. Ein anderer Teil der Bosniaken verhielt sich gegenüber der neuen Regierung gleichgültig, viele schlossen sich aber den Partisanen an. Bosnien wurde seit 1943 zum Hauptschauplatz grausamer Partisanenkämpfe mit zahllosen Opfern. Einige muslimische Politiker unter Führung von Uzeir-aga Hadžihasanović forderten bald eine bosnische Autonomie, um sich besser vor den Serben schützen zu können, gegen die die kroatische Regierung in ihren Augen nicht wirksam genug vorging. Die Kroaten bezeichneten die Forderung als eine Form der Unterstützung der Partisanen, was aber insofern unberechtigt war, als die Muslime ja die Errichtung eines deutschen Protektorats auf dem Territorium Bosnien-Herzegovinas verlangten. So erklärten die diesem Flügel angehörigen bosnischen muslimischen Politiker in einem Memorandum vom 1. November 1942: Die Bošnjaci, also „die Muslime Bosniens, sind integraler Bestandteil des 300 Millionen zählenden islamischen Volks im Osten, das seine Befreiung nur durch den Kampf gegen den englischen Imperialismus, das Judentum, die Freimaurerei und den Bolschewismus erreichen kann, ein Kampf, in welchem das deutsche Volk unter der Leitung seines Führers an vorderster Front steht“. Bosnien sei in den Bestand des kroatischen Staates gekommen, „was nach unserem Willen und unserer Zustimmung geschah“, aber bald „entgegen unseren Hoffnungen und Erwartungen ausfiel“. Man habe geglaubt, „dass unser Bosnien-Hercegovina unter deutscher Militärverwaltung bleiben und die bosnischen Muslime als das numerisch stärkste Element zur Mitarbeit in der Verwaltung aufgefordert würden“. Diese Hoffnung sei enttäuscht worden. Die Politiker, die auf einen bosnischen Anschluss an ein Großdeutsches Reich in der Tradition der Donaumonarchie hofften, boten Hitler im Gegenzug für mehr Autonomie die Gründung einer muslimischen SS-Einheit an. 1943 verließen – auch aufgrund der Propaganda des Großmuftis von Jerusalem und teils unter Vorspiegelung falscher Tatsachen – viele Muslime unorganisiert und gegen kroatischen Widerstand den kroatischen Militärdienst, was zunächst ein Chaos verursachte. Sie bildeten mit Hilfe deutscher SS-Offiziere eine muslimische Legion. Aus dieser Truppe, der das Tragen des Fes erlaubt wurde, ging die 13. Waffen-Gebirgs-Division der SS „Handschar“ hervor, die zuerst in Frankreich ausgebildet wurde. Dort musste ein Aufstand der Truppen, die sich durch die Verlegung getäuscht fühlten, gegen ihre deutschen Offiziere niedergeschlagen werden. 1944 wurde die Division nach Bosnien verlegt, wo sie serbische Partisanen bekämpfte. Dabei kam es auch zu Gräueltaten gegenüber der serbischen Zivilbevölkerung, Roma und Juden, aber mit den antikommunistisch-königstreuen Tschetniks arbeitete man gelegentlich zusammen. Die Division ignorierte die kroatischen Staatsorgane und ernannte selbst die Dorfältesten, die auf Hitler oder die SS vereidigt wurden. Nachdem die Division das bevorzugte Angriffsziel der Partisanen wurde und im Spätsommer 1944 immer mehr Soldaten desertierten, da sie teilweise noch das Zusammenbruchsszenario von 1918 vor Augen hatten, lösten die Deutschen sie auf. Gegen Ende des Krieges kämpfte in Bosnien fast jeder gegen jeden. Kulenović ging nach Syrien ins Exil. Politisches Instrument für die Bewegung der Blockfreien Nachdem Tito zusammen mit Nasser und Nehru die Bewegung der blockfreien Staaten gegründet hatte, kamen die bosnischen Muslime nach dem Zweiten Weltkrieg wieder leichter in Kontakt mit der restlichen muslimischen Welt. Obwohl die Islamische Religiöse Gemeinschaft, welche die jugoslawischen Muslime offiziell repräsentierte, dazu instruiert wurde, den Islamischen Weltkongress in Karachi 1952 zu boykottieren, wurden deren Angehörige bald im Namen der Sozialistischen Föderativen Republik Jugoslawien in alle Welt geschickt. Ein muslimischer Hintergrund war ein Vorteil für Kandidaten für den jugoslawischen Auswärtigen Dienst. Viele bosnisch-muslimische Diplomaten dienten daher in den arabischen und indonesischen Staaten. Die Tatsache, dass diese Beamten alle Mitglieder der kommunistischen Partei waren und ihre Religion größtenteils aufgegeben hatten, schien von keiner Bedeutung zu sein, solange sie muslimische Vornamen trugen. Streben nach Anerkennung Bei der Volkszählung von 1948 standen den Muslimen im ehemaligen Jugoslawien drei Optionen zur Verfügung: Sie konnten sich „muslimische Serben“, „muslimische Kroaten“ oder aber als „Muslime (nicht deklarierte Nationalität)“ nennen. Tatsächlich gaben der überwiegende Teil der Muslime „nicht deklariert“ an. 1953 gab es ein ähnliches Ergebnis. Seinerzeit wurde der Geist des Jugoslawismus propagiert. Die Bezeichnung „Muslim“ wurde entfernt. An ihre Stelle trat die Angabe „Jugoslawe (nicht deklarierte Nationalität)“. Wiederum entschieden sich die meisten für diese Option. In den 1960ern änderte sich der Trend. Im Allgemeinen fügten sich die bosnischen Politiker der serbischen Dominanz. Die bosnische kommunistische Partei zählte etwa 60 % Serben und lediglich 20 % Muslime. Doch die Vertreter des politischen Islam in Bosnien beobachteten den Kampf Nassers gegen die panislamische Muslimbruderschaft, nachdem diese zu seinem Sturz aufgerufen hatten, und Saudi-Arabiens Unterstützung des Panislamismus, der rasch Anhänger unter der verarmten Bevölkerung vieler islamischer Länder fand. Nach dem Rücktritt des Serben Đuro Pucar als Parteivorsitzender und Aleksandar Ranković’ als Titos Sicherheitschef kam Belgrad den Muslimen und den anderen nicht-serbischen Volksgruppen im Hinblick auf ihre Autonomiebedürfnisse entgegen. Für die Bestrebungen zur Anerkennung der Muslime als eigenständiger Ethnie waren zwei weitere Faktoren entscheidend: das Bestreben, die Identitäten der Teilstaaten gegenüber einem „integralen Jugoslawismus“ zu stärken, und der Aufstieg einer kleinen Elite muslimischer Kommunisten innerhalb der Partei. Ein wichtiger Befürworter dieser neuen Nationalitätenpolitik, die jedoch nicht intendierte, Bosnien-Herzegowina zu einer rein islamischen Republik zu machen, sondern ein säkularisiertes Verständnis von Nation entwickelte, war Džemal Bijedić. Bei der Volkszählung von 1961 wurde es möglich, „Muslim im ethnischen Sinne“ anzugeben. Ebenso bezog sich die bosnische Verfassung von 1963 in der Präambel auf , was implizit bedeutete, dass die Muslime als Volksgruppe erachtet wurden. Von nun an wurden die Muslime wie die übrigen Volksgruppen behandelt, wenn dies auch noch nicht offiziell bestätigt wurde. Eine Vielzahl von Akademikern und Beamten startete unter der intellektuellen Führung von Muhamed Filipović und mit Hilfe kommunistischer Funktionäre wie etwa des Historikers Atif Purivatra – eines Vertreters des Bogomilen-Mythos – eine Kampagne zur Großschreibung des M im Wort Musliman. Dieses bezeichnet das Mitglied einer Volksgruppe im Gegensatz zu musliman, das lediglich auf die Religionszugehörigkeit als Identitätskriterium verweist. Filipović wurde 1967 deswegen aus der Partei ausgeschlossen. Das bosnische Zentralkomitee der kommunistischen Partei entschied 1968 jedoch, dass . Trotz heftigen Widerstandes in Belgrad von Seiten serbisch-nationaler Kommunisten wie etwa Dobrica Ćosić oder mazedonischer Politiker wurde diese Vorgangsweise von der Zentralregierung bestätigt. Die Angabe bei der Volkszählung von 1971 lautete daher „Muslim (im Sinne einer Volksgruppe)“. Das Studium der islamischen Theologie in Bosnien-Herzegowina und der studentische Austausch mit anderen muslimischen Staaten wurden seitdem stimuliert. 1977 wurde die Fakultät der Islamischen Theologie an der Universität Sarajevo eingerichtet. Rolle der Intellektuellen Die Bewegung zur Anerkennung der Slawischen Muslime als eigenständiger Volksgruppe begann in den späten 1960ern und Anfang der 1970er. Aus dieser entwickelten sich zwei Strömungen: Eine wurde von Kommunisten und anderen säkularisierten Muslimen wie Džemal Bijedić geführt, die die muslimische Identität in Bosnien-Herzegowina zu einer definitiv nicht-religiösen umwandeln wollten (der sog. säkulare „Muslimische Nationalismus“), und eine davon getrennte, die die islamische Identität in den Vordergrund stellte. Zur ersten Strömung gehörten Wissenschaftler wie Atif Purivatra, der sich seit Ende der 1960er intensiv und auf akademischem Niveau mit der Frage der Nationalität der bosnischen Muslime auseinandersetzte. Ein prominentes Beispiel für die Sichtweisen der zweiten, konservativ-panislamischen Strömung ist die „Islamische Deklaration“, eine programmatische Schrift, die in den 1960er Jahren von Alija Izetbegović verfasst und im Todesjahr Nassers (1970) als Buch herausgegeben wurde. Izetbegović stand mit seinen Ansichten im Gegensatz zu Purivatra. Er unterhielt Kontakte zu den Muslimbruderschaften im Ausland und forderte einen panislamischen föderativen Staat. Die Anhänger dieser Bewegung wandten sich gegen Mischehen und traten für Alkoholverbote und die Verschleierung der Frauen ein. Izetbegović erklärte, dass es keinen Frieden zwischen den Muslimen und nichtmuslimischen Institutionen geben könne. Er verurteilte den säkularen Nationalismus als trennendes Instrument und bezeichnete den Kommunismus als inadäquates System. Izetbegović wurde in der Folge 1983 zu 14 Jahren Haft wegen „Aufrufs zur Zerstörung Jugoslawiens“ verurteilt, 1988 aber zur Entschärfung des Kosovo-Konflikts freigelassen. Sprache Bosniaken sprechen zumeist Bosnisch, eine standardsprachliche Form jenes štokavischen Dialekts, auf dem auch Kroatisch und Serbisch basieren und die heute innerhalb Bosniens offiziell als eigenständige Sprache betrachtet und als solche ausgebaut wird. Sie weist im Vergleich zu den anderen Standardvarietäten des Serbokroatischen Unterschiede in Phonologie und Morphologie sowie teilweise in Syntax, Rechtschreibung und außerdem im Wortschatz auf, wobei letzteres am offensichtlichsten ist. Der bosnische Wortschatz weist etwas größere Einflüsse der türkischen, persischen und der arabischen Sprache auf, welche durch das Osmanische ins Bosnische Einzug fanden. Bei der Volkszählung 2013 in Bosnien und Herzegowina bezeichneten 1.866.585 Einwohner und damit die Bevölkerungsmehrheit ihre Sprache als Bosnisch. Familiennamen Die bosniakischen Nachnamen haben, wie im südslawischen Raum üblich, oft die Endungen „ić“ oder „ović“. Anhand der Nachnamen ist der Einfluss der osmanisch-islamischen Kultur erkennbar. So tragen viele Bosniaken Namen wie z. B. „Imamović“ (übersetzt: Sohn des Imams) oder „Hadžiosmanović“ (Sohn des Haddschi Osman). Da Bosniaken in Bosnien und Herzegowina während der Herrschaft des Osmanischen Reiches den Adel stellten, gibt es viele Nachnamen die darauf hinweisen wie z. B. „Kurbegović“ (Nachkommen des Kur-beg) oder „Hadžipašić“ (Nachkommen des Haddschi-paša). Die häufigsten Adelstitel, die sich in Nachnamen finden lassen, sind -beg-, -aga- und -paša-. Es gibt daneben aber auch bosniakische Nachnamen, die keine ić-Endung besitzen. Diese beziehen sich in der Regel auf einen Beruf, auf die Herkunft oder andere Faktoren der Familiengeschichte. Ein Beispiel für einen solchen Namen ist der häufige Name Zlatar (übersetzt: Goldschmied). Es gibt auch Nachnamen, die aus der vorslawischen Zeit stammen und deren Bedeutung heutzutage nicht mehr bekannt ist. Andere bosniakische Namen haben nichts Orientalisches an sich, enden aber auf -ić. Diese Namen haben ihren Ursprung im Mittelalter und haben sich wahrscheinlich seitdem nicht verändert. Sie gehören dem alten bosnischen Adel an oder sind der letzten Welle der zum Islam Konvertierten zuzurechnen. Beispiele hierfür sind Tvrtković und Kulenović (vgl. König Tvrtko oder Ban Kulin). Die Vornamen der Bosniaken sind meist arabischen, türkischen oder persischen Ursprungs. So heißen viele z. B. Hasan, Adnan, Sulejman oder Emir. Einige arabische Namen werden gekürzt. Daneben sind auch Namen populär, die nicht religiös gebunden und im gesamten südslawischen Raum verbreitet sind, wie etwa der Name Zlatan (der Goldene). Religion Die Mehrheit der Bosniaken sind Muslime, in ihrer Mehrheit Sunniten der hanafitischen Rechtsschule. Daneben gibt es auch Bosniaken, die sich keiner Konfession zuordnen wollen und sich daher „nur“ als Muslime betrachten. In Zentralbosnien gibt es eine kleine Sufi Gemeinde. Eine Minderheit der bosnischen Muslime sind schiitisch. Neben gläubigen Muslimen gibt es auch Atheisten und Agnostiker oder die einer anderen Religion angehören. Siedlungsgebiet Zum Siedlungsgebiet der Bosniaken gehört heute überwiegend Bosnien und Herzegowina, vor allem dessen Teilrepublik Föderation Bosnien und Herzegowina, und einige kleine Abschnitte an dessen Grenze sowie Teile des Sandžak zwischen Serbien und Montenegro und kleine Teile im Kosovo. Bis zum Bosnienkrieg 1992 stellten die Bosniaken vor allem die Stadtbevölkerung des Landes, sie siedelten vor allem im Zentrum und im Osten sowie in der Region Bihać im Westen. Nach den „ethnischen Säuberungen“ während des Krieges, als Bosniaken vor allem aus den von der Republika Srpska kontrollierten Gebieten entlang der Drina vertrieben wurden und dem Völkermord an den Bosniaken in Srebrenica konzentrieren sie sich inzwischen auf die Region um die Städte Sarajevo, Zenica und Tuzla und den Raum Bihać. Die Region Bihać ist deckungsgleich mit dem Kanton Una-Sana, welcher mit 94,3 % den höchsten Anteil von Bosniaken an der gesamten Einwohnerzahl aufweist. Das kulturelle Zentrum der Bosniaken ist Sarajevo. Nachfolgestaaten Jugoslawiens Durch die ökonomisch bedingte Binnenwanderung während der jugoslawischen Periode entstand eine bosniakische Diaspora in Slowenien und Kroatien. Es gibt aber in Kroatien auch vereinzelt Bosniaken, die seit der Osmanischen Herrschaft dort leben, diese gehören zu den wenigen übrig gebliebenen Bosniaken, die nicht nach dem Ende der Osmanischen Herrschaft bzw. dem Rückzug des Eyâlet Bosnien ausgewandert sind. Der Krieg auf dem Balkan in der ersten Hälfte der 1990er Jahre sorgte zudem für erhebliche Flüchtlingsbewegungen. Türkei Eine große bosniakische Diaspora besteht in der Türkei. Es leben heute je nach Quelle fünf, sieben, acht oder gar zwölf Millionen Nachfahren von Bosniaken in der Türkei. Von der Okkupation bis zum Beginn des Ersten Weltkriegs (1878 bis 1914) sind nach Angaben Österreich-Ungarns aus Bosnien und Herzegowina 61.114 Bosniaken ausgewandert, was aber nicht den Tatsachen entsprach. Alleine schon in der Periode 1900 bis 1905 waren es 72.000 Bosniaken nach den Angaben des osmanischen Komitees für die Platzierung der Flüchtlinge, in der gleichen Periode waren es nach Österreich-Ungarns Angaben lediglich 13.750. Schätzungen gehen von 150.000 Auswanderern während der Herrschaft Österreich-Ungarns aus, es gibt auch Publizisten die von 300.000 Bosniaken sprechen, was aber von den meisten Historikern als Übertreibung betrachtet wird. Andere Staaten Seit den 1960er Jahren kamen Bosniaken als Gastarbeiter in westeuropäische Staaten, in den 1990er Jahren als Kriegsflüchtlinge auch in die USA, nach Kanada und Australien. In Deutschland entstanden erste bosniakische Gemeinden bereits in den 1960er und 1970er Jahren, als zahlreiche Gastarbeiter aus Jugoslawien nach Deutschland kamen. Viele der in Deutschland lebenden Bosniaken sind während des Bosnienkrieges zugewandert. Seit 1994 bzw. 2007 gibt es den Dachverband Islamische Gemeinschaft der Bosniaken in Deutschland. Literatur Bartosz Bojarczyk: Radical Islamism – A threat to Bosniak Identity and Security of Bosnia and Herzegovina. In: Jakub Olchowski, Tomasz Stępniewski, Bartosz Bojarczyk, Alina Sobol (Hrsg.): Bosnia and Herzegovina and the Western Balkans. Yearbook of the Institute of East-Central Europe. Band 12, Nr. 3, 2014, S. 53–72. Adisa Busuladžić: The Bosniaks: Failing Role Models for Muslim Europeans. In: International Journal of Euro-Mediterranean Studies. Band 3, Nr. 2, 2010, S. 211–222. Annette Monika Fath-Lihic: Nationswerdung zwischen innerer Zerrissenheit und äußerem Druck. Die bosnischen Muslime auf dem Weg vom ethnischen Bewusstsein zur nationalen Identität. Dissertation Universität Mannheim 2007, Volltext Atif Purivatra: Nacionalni i politički razvitak Muslimana. Svjetlost, Sarajevo 1969. Weblinks Einzelnachweise Slawischsprachige Ethnie Ethnie in Europa
Q940348
199.707798
6537
https://de.wikipedia.org/wiki/1509
1509
Im Jahr 1509 kommt es zum ersten friedlichen Thronwechsel in England seit fast 100 Jahren. Nach dem Tod des ersten Tudor-Herrschers König Heinrich VII. wird sein Sohn als Heinrich VIII. zum König von England gekrönt, nachdem dieser erst wenige Tage zuvor Katharina von Aragón geheiratet hat. Mit der Vernichtung einer indisch-ägyptisch-arabischen Flotte in der Seeschlacht von Diu sichert der indische Vizekönig Francisco de Almeida die Seeherrschaft Portugals im Indischen Ozean für über ein Jahrhundert. Während der Italienischen Kriege erleidet die Republik Venedig in der Schlacht von Agnadello eine vernichtende Niederlage gegen die von Papst Julius II. geführte Liga von Cambrai. Ereignisse Politik und Weltgeschehen Hanse/Skandinavien Eine Lübecker Flotte überfällt und plündert im September erst Bornholm, dann Gotland und bringt Kriegsgüter sowie Versorgungsmaterial nach Schweden. Dem gegen Dänemark gerichteten Bündnis Lübecks mit Schweden schließen sich Rostock, Stralsund und Wismar an. Im folgenden Jahr bricht der Dänisch-Hanseatische Krieg aus. Heiliges Römisches Reich 27. Januar: Johann II. wird nach dem Tod seines Vaters Johann I. Pfalzgraf und Herzog von Simmern. 24. April: Mit der Verhaftung von 14 Frauen und einem Mann beginnt die Hexenverfolgung in Lemgo. 9. Juni: Mit der Erstürmung des Ratssaals von Erfurt durch Vertreter der Zünfte und die Vertreibung des Ratsherrn Kellner beginnt das tolle Jahr von Erfurt. 11. Juli: Der Tod seines Vaters Wilhelm II. von Hessen macht den fünfjährigen Philipp den Großmütigen zum hessischen Landgrafen. Seine Mutter ringt in der Folge erbittert mit den Landständen des Landes um die vormundschaftliche Regentschaft. Italienische Kriege / Liga von Cambrai 27. April: Der zur Liga von Cambrai gehörende Papst Julius II. verhängt über die Republik Venedig ein Interdikt. 14. Mai: In der Schlacht von Agnadello wird die Armee der Republik Venedig von der Liga unter dem Befehl von Gian Giacomo Trivulzio vernichtend geschlagen. 8. Juni: Die belagerte Stadt Pisa muss wegen der Hungersnot in ihren Mauern gegenüber florentinischen Truppen kapitulieren. 8. August: Beim Versuch, im Auftrag der Liga die Stadt Legnano zu erobern, wird Gianfrancesco II. Gonzaga von venezianischen Truppen in seinem Lager überrascht, gefangen genommen und nach Venedig verbracht. Da sein Sohn Federico zu diesem Zeitpunkt erst neun Jahre alt ist, übernimmt Gianfrancescos Gattin Isabella d’Este die Regentschaft in der Markgrafschaft Mantua. Unterstützt wird sie dabei von ihrem Schwager Sigismondo Gonzaga. August: Kaiser Maximilian I. marschiert in Italien ein und belagert die venezianischen Städte Padua und Treviso. 29. September: Eleonora Gonzaga heiratet Francesco Maria I. della Rovere, den Herzog von Urbino. 15. Oktober: Nach einem Friedensschluss zwischen dem Reich und Venedig ziehen die Truppen Maximilians wieder aus Italien ab. England Der erste Tudor-Herrscher König Heinrich VII. stirbt am 21. April nach längerer Krankheit im Hampton Court Palace in Richmond upon Thames. Sein Tod wird zwei Tage lang geheim gehalten, während sich hinter den Kulissen ein politischer Machtkampf abspielt, der zum Sturz der beiden wichtigsten und unbeliebtesten Minister des alten Königs, Richard Empson und Edmund Dudley, führt, die als die Schuldigen für dessen tyrannische Finanzpolitik inhaftiert werden. Heinrichs gleichnamiger Sohn wird erst am 24. April in London als König ausgerufen. Er gewährt anschließend einen Generalpardon für alle, die seinem Vater Geld geschuldet haben. Es handelt sich um den ersten friedlichen Thronwechsel in England seit fast 100 Jahren. Am 11. Juni geht Henry Tudor die Ehe mit Katharina von Aragón ein und wird am 23. Juni als Heinrich VIII. zum König von England gekrönt. Der junge König, der im Volk sehr populär ist, ruft eine euphorische Stimmung im Land hervor. Unter anderem veröffentlicht Thomas Morus einen Gedichtband zu seinen Ehren. Entdeckungsreisen Sebastiano Caboto kehrt von einer im Auftrag des englischen Königs Heinrich VII. unternommenen Reise auf der Suche nach der Nordwestpassage zurück, die ihn möglicherweise nördlich bis in die Hudson Bay und südlich bis in die Chesapeake Bay geführt hat. Der neue König Heinrich VIII. zeigt wenig Interesse an Entdeckungsfahrten. Portugal / Indien Mit der Vernichtung einer indisch-ägyptisch-arabischen Flotte in der Seeschlacht von Diu am 3. Februar kann der indische Vizekönig Francisco de Almeida den Tod seines Sohnes im Vorjahr rächen. Der Sieg sichert die Seeherrschaft Portugals im Indischen Ozean für über ein Jahrhundert und beendet die Epoche der ägyptischen Mamluken als Hegemonialmacht in diesem Raum. Der portugiesische Seefahrer Diogo Lopes de Sequeira unternimmt eine Reise nach Malakka mit dem Auftrag, Handelsbeziehungen mit Sultan Mahmud aufzunehmen, kehrt aber ohne Erfolg zurück. Spanische Kolonien Mai: Pedro Navarro erobert die Stadt Oran in Nordafrika von den Abdalwadiden für Spanien. Diego Kolumbus, Sohn von Christoph Kolumbus, löst Nicolás de Ovando als Vizekönig von Hispaniola und Gouverneur von Kuba ab. Seine Gattin María de Toledo begleitet ihn mit zahlreichen Hofdamen in die „Neue Welt“, wo sie am 9. Juli eintreffen. Diego Kolumbus nimmt Jamaika für Spanien in Besitz. Zentralasien Qazim Khan gründet das Kasachen-Khanat und erklärt sich vom Usbeken-Khanat unter Mohammed Scheibani unabhängig. Wirtschaft Der französische König Ludwig XII. ändert die Statuten der 1248 gegründeten Rôtisseurs, der „Gänseröster-Innung“. Über die Jahre sind die Aktivitäten und Privilegien dieser auf das Zubereiten und Vermarkten aller Art Fleisch, darunter Geflügel und Wild ausgeweitet worden. Ihre Aktivitäten werden jetzt auf Geflügel, Wildvögel, Lamm und Wild beschränkt. Wissenschaft und Technik An der University of Oxford wird Brasenose College errichtet, eines der ältesten Colleges in Oxford. Der Laienspiegel von Ulrich Tengler erscheint erstmals im Druck. um 1509: Nikolaus Kopernikus verfasst den Commentariolus über die Planetenbahnen. Kultur Bildende Kunst Die Werkstatt von Albrecht Dürer übersendet den von ihm erstellten Teil des Heller-Altars von Nürnberg nach Frankfurt am Main. Der andere Teil des von Jakob Heller für die Frankfurter Dominikanerkirche in Auftrag gegebenen Triptychons wird von Matthias Grünewald gefertigt. Die beiden Teile werden 1511 am Bestimmungsort zusammengebaut. Tilman Riemenschneider schafft für die Pfarrkirche St. Kilian in Windsheim an der Aisch im Auftrag der Witwe Elisabeth Bachknapp den Zwölfbotenaltar. Lucas van Leyden malt Die Versuchung des Heiligen Antonius. Literatur und Theater 6. Februar: I Suppositi, die zweite Komödie von Ludovico Ariosto, hat ihre Uraufführung in italienischer Sprache am Hof von Ferrara. Balthasar Sprengers Meerfahrt, einer der ersten deutschen Reiseberichte, wird gedruckt. Darin beschreibt der Angestellte des Hauses Welser die Fahrt, an der er 1505 mit der Flotte des portugiesischen Vizekönigs Francisco de Almeida von Lissabon aus um den afrikanischen Kontinent und das Kap der guten Hoffnung an die afrikanische Ostküste und weiter an die indische Südostküste nach Kochi und Calicut teilgenommen hat. Das Volksbuch Fortunatus erscheint in Augsburg in Druck. Narrenliteratur: Während eines Aufenthalts bei seinem Freund Thomas Morus in England verfasst Erasmus von Rotterdam das Lob der Torheit. Gesellschaft Karl IV., Herzog von Alençon, heiratet Margarete von Navarra, die Schwester von François, Graf von Angoulême. Religion 31. Mai: Der „Jetzerhandel“ erreicht in Bern seinen Höhepunkt, als vier Dominikanerbrüder öffentlich verbrannt werden. Christoph von Schroffenstein wird als Nachfolger des verstorbenen Melchior von Meckau Fürstbischof von Brixen. Der Bau der Kirche Santa Maria dello Spasimo in Palermo beginnt. Katastrophen 14. September: Ein Erdbeben zerstört Teile von Konstantinopel und fordert etwa 13.000 Tote. 26. September: Eine als Zweite Cosmas- und Damianflut bezeichnete schwere Sturmflut bricht über die Nordsee herein. Dollart und Jadebusen erhalten dadurch ihre größte Ausdehnung. Geboren Geburtsdatum gesichert 2. Januar: Heinrich zu Stolberg, deutscher Regent († 1572) 6. Januar: Melchior Cano, spanischer Theologe († 1560) 14. Januar: Katharina von Henneberg-Schleusingen, Gräfin von Schwarzburg († 1567) 25. Januar: Giovanni Morone, italienischer katholischer Kardinal († 1580) 2. Februar: Jan van Leiden, deutscher Reformator, „König“ des Täuferreichs von Münster († 1536) 27. März: Wolrad II., Graf von Waldeck-Eisenberg († 1578) 23. April: Afonso de Portugal, Kardinal der katholischen Kirche, Bischof von Idana, Erzbischof von Lissabon und Bischof von Évora († 1540) 27. Mai: Pasquale Cicogna, 88. Doge von Venedig († 1595) 4. Juli: Magnus III., Herzog zu Mecklenburg († 1550) 10. Juli: Johannes Calvin, Schweizer Reformator († 1564) 7. August: Joachim, Fürst von Anhalt-Dessau († 1561) 25. August: Ippolito II. d’Este, Erzbischof von Mailand und Kardinal († 1572) 4. November: Johann, Herzog von Münsterberg, Oels und Bernstadt († 1565) 18. Dezember: Florian Griespek von Griespach, böhmischer Adeliger bayrisch-österreichischer Abstammung († 1588) Genaues Geburtsdatum unbekannt Gonzalo Jiménez de Quesada, spanischer Konquistador († 1579) Geboren um 1509 Pieter Aertsen, niederländischer Maler († 1575) Leone Leoni, italienischer Bildhauer, Goldschmied und Medailleur († 1590) Élie Vinet, französischer Übersetzer, Historiker und Lehrer († 1587) 1509 oder 1512: Nicolò dell’Abbate, italienischer Maler († 1571) Gestorben Todesdatum gesichert Mitte Januar: Adam Kraft, fränkischer Bildhauer (* 1455/1460) 27. Januar: Johann I., Pfalzgraf und Herzog von Simmern (* 1459) 5. Februar: Michael Hildebrand, Erzbischof von Riga (* 1433) 14. Februar: Dmitri Iwanowitsch der Enkel, Großfürst und Thronfolger des Großfürstentums Moskau (* 1483) 3. März: Melchior von Meckau, Fürstbischof von Brixen (* um 1440) 21. April: Heinrich VII., König von England und Lord of Ireland, Begründer der Tudor-Dynastie (* 1457) 25. April: Georg II., Fürst von Anhalt-Köthen (* 1454) 27. April: Margarete von Brandenburg, Prinzessin von Brandenburg, Äbtissin des Klosters Hof (* 1453) vor dem 12. Mai: Bernt Notke, Lübecker Maler und Werkstattbesitzer (* um 1435) 28. Mai: Caterina Sforza, Mailänder Adelige und Schriftstellerin, Gräfin von Forli und Herrin von Imola (* 1463) 29. Juni: Margaret Beaufort, englische Adelige, Mutter Heinrichs VII. von England (* 1443) 11. Juli: Wilhelm II., Landgraf von Hessen (* 1469) 8. Oktober: Agnese Farnese, italienische Adlige (* um 1450) 20. November: Konrad Altheimer, Administrator des Bistums Olmütz und Weihbischof in Olmütz (* 1454) 20. November: Nikolaus II. Engel, Abt des Zisterzienserklosters in Ebrach 31. Dezember: Wolfgang von Fürstenberg, deutscher Adeliger (* 1465) 31. Dezember: Wilhelm Westphal, Bischof von Lübeck (* 1443) Genaues Todesdatum unbekannt Jakob von Landshut, deutscher Baumeister (* um 1450) João da Nova, galicischer Seefahrer und Entdecker in portugiesischen Diensten (* um 1460) Caspar Rugg, Schweizer Kaufmann und Bürgermeister von St. Gallen Johann von Wickede, Ratsherr der Stadt Lübeck Weblinks
Q6177
121.946549
13473
https://de.wikipedia.org/wiki/Zitat
Zitat
Das Zitat ( „Angeführtes, Aufgerufenes“ zu lat. citāre „in Bewegung setzen, vorladen“, vgl. „jemanden vor Gericht zitieren“) ist eine wörtlich oder inhaltlich übernommene Stelle aus einem Text oder ein Hinweis auf eine bestimmte Textstelle. Auch Inhalte aus anderen Medien können übernommen werden: Es gibt Bild-, Musik-, Film- und Architekturzitate. Bekannte wörtliche Zitate werden häufig als geflügeltes Wort verwendet. Beispielsweise sind viele Textstellen aus der Bibel so stark im allgemeinen Sprachgebrauch verankert, dass sie kaum mehr als Zitat empfunden werden. Auch beim politischen Meinungsstreit spricht man von Zitaten, wenn man sich auf Äußerungen anderer bezieht. Im Journalismus wird ein direkt verwendetes Zitat in wörtlicher Rede auch als Originalton (O-Ton) bezeichnet. In der Regel wird ein Zitat durch eine Quellenangabe oder einen Literaturnachweis belegt, indem sein Autor und die genaue Textstelle genannt werden. Ein solcher Verweis wird in der Bibliothekswissenschaft als Zitation bezeichnet. Zitationen können auch ohne dazugehöriges Zitat auftreten. Zitate, deren ursprünglicher Kontext verloren und nicht mehr rekonstruierbar ist, werden zu Fragmenten. Zitate und Urheberrecht Die Verwendung von Zitaten ist durch das Urheberrecht geregelt und unter bestimmten Voraussetzungen gestattet, ohne dass eine Erlaubnis des Urhebers eingeholt oder diesem eine Vergütung gezahlt werden muss ( UrhG in Deutschland, siehe unten). Die allgemeine Begründung dafür ist, dass Zitate der kulturellen und wissenschaftlichen Weiterentwicklung einer Gesellschaft dienen (siehe auch Informationsfreiheit). Zitate stellen einen Unterfall der urheberrechtlichen Schranken dar. Zitate sind mit Literaturangabe zu versehen (Gebot der Quellenangabe in deutsches UrhG im Sinne einer genauen Angabe der Fundstelle). Das Zitatrecht dürfen nur Werke beanspruchen, die selbst urheberrechtlichen Schutz genießen, also eine eigene „Schöpfungshöhe“ aufweisen. Demnach dürfen sich Zitatensammlungen, die ausschließlich Fremdleistungen wiedergeben, nicht auf das Zitatrecht berufen. Die (wirtschaftlichen) Interessen des Urhebers bzw. Rechteinhabers des zitierten Werkes dürfen durch ein Zitat nicht über Gebühr eingeschränkt werden. Zitate unterliegen dem Änderungsverbot, doch sind Kürzungen zulässig, wenn sie den Sinn nicht entstellen. Unterschieden werden: Großzitate – Zitate ganzer Werke Kleinzitate – auszugsweise Zitate, z. B. einzelne Sätze oder Gedankengänge Bildzitate, Musikzitate und Filmzitate Freies Zitieren – Ohne Einhaltung des genauen Wortlauts. Großzitate sind nur in wissenschaftlichen Arbeiten zulässig. Voraussetzung für ein Großzitat ist die bereits erfolgte Veröffentlichung. Kleinzitate dürfen weiterreichend verwendet werden. Der Zitierzweck muss erkennbar sein. Das Zitat muss also in irgendeiner Beziehung zu der eigenen Leistung stehen, beispielsweise als Erörterungsgrundlage. Der Umfang des Zitats muss dem Zweck angemessen sein. Bildzitate sind rechtlich am schwierigsten zu handhaben. Bildzitate sind einerseits als Großzitate (im wissenschaftlichen Bereich) gerechtfertigt, andererseits aber nach herrschender Lehre auch als „Große Kleinzitate“ möglich. Filmzitate werden als Sonderform von Bildzitaten angesehen. Allerdings ist es beispielsweise in der Filmbranche nicht unüblich, Parodien auf ganze Filme zu produzieren, die als eigenständige Kunstwerke angesehen und akzeptiert werden, auch wenn das parodierte Original (bei dieser Kunstform notwendigerweise) eindeutig erkennbar ist. Deutschland Nach deutschem Urheberrecht gilt für Zitate UrhG (Stand: 1. März 2018): Hieraus leitet sich das sogenannte „Zitatprivileg“ ab, das sich der grundgesetzlich garantierten Weltanschauungs-, Kunst-, Meinungs-, Informations-, Presse- und Wissenschaftsfreiheit bedient ( und GG). Schweiz Art. 25 Zitate des Urheberrechtsgesetzes (URG) lautet: Wenn es der Zitatzweck rechtfertigt, darf ein Zitat auch ein ganzes Werk (z. B. ein Gedicht) umfassen. Dabei muss bei Sprachwerken ein inhaltlicher Bezug des zitierenden Textes auf das zitierte Werk bestehen. Von Bedeutung für die Auslegung dieser Vorschrift war ein Rechtsstreit zwischen dem Historiker Georg Kreis und der Zeitung Schweizerzeit. Die Schweizerzeit druckte am 26. Juli 2002 einen zuvor im Tages-Anzeiger erschienenen Beitrag des Zürcher Politikers Christoph Mörgeli und die einige Tage nach dem Beitrag von Mörgeli gleichfalls im Tages-Anzeiger veröffentlichte Entgegnung von Kreis zusammen mit einem «abschließenden Kommentar» des Publizisten Eduard Stäuble ab. Für den Abdruck des Artikels von Georg Kreis hatte dieser keine Erlaubnis erteilt. Das Obergericht des Kantons Zürich wies die Klage von Kreis am 9. September 2004 mit der Begründung ab, die Wiedergabe seines Artikels sei durch das Zitatrecht gemäß Art. 25 URG gerechtfertigt. Das Bundesgericht hingegen hieß mit Beschluss vom 22. Juni 2005 die Berufung von Georg Kreis gut und stellte fest, dass seine Urheberrechte mit der Publikation in der Schweizerzeit verletzt wurden. Neben einem Kasten der Redaktion rechtfertige auch der Text von Stäuble, in dem Bezug auf den Artikel von Kreis genommen wird, kein Zitat des vollständigen Artikels. Das Bundesgericht hielt außerdem fest, «dass auch unter dem Aspekt der Meinungs- und Medienfreiheit keine Notwendigkeit bestand, den Artikel des Klägers wörtlich und in vollem Umfang abzudrucken.» Es lehnte die Auffassung des Zürcher Obergerichts ab, welches eine Berechtigung zum vollständigen Abdruck aus der Medienfreiheit und der Meinungs- und Informationsfreiheit im Sinne der Art. 16 und Art. 17 der Bundesverfassung ableitete: Österreich UrhG regelt das Zitatrecht. Bildzitate werden vom Wortlaut nicht erfasst, wurden aber von der Rechtsprechung als zulässig angesehen. Liechtenstein Die Rezeptionsvorlage für das liechtensteinische Urheberrechtsgesetz bildete das schweizerische Urheberrechtsgesetz. Art. 27 Zitate des liechtensteinischen Urheberrechtsgesetzes lautet: Zu dieser Bestimmung liegt noch keine bedeutende Rechtsprechung durch liechtensteinische Gerichte vor. Meinungsstreit In der öffentlichen Auseinandersetzung werden oft Äußerungen von Politikern oder anderen Persönlichkeiten des öffentlichen Lebens angeführt, um sie zurückzuweisen oder die eigene Auffassung zu untermauern. Gegen wahre Zitate kann sich ihr Urheber nicht wehren. Niemand braucht es sich aber gefallen zu lassen, dass ihm falsche Zitate untergeschoben werden oder dass Zitate etwa durch Auslassungen verfälscht werden. Solche Manipulationen verstoßen gegen das Persönlichkeitsrecht. Wie das Landgericht Berlin in einer juristischen Auseinandersetzung zwischen dem Bundesumweltminister Jürgen Trittin und der Bild-Zeitung unterstrich, sind an die Wiedergabe wörtlicher Zitate strenge Anforderungen zu stellen. Wissenschaft Zitate haben in der Wissenschaft ihre größte Bedeutung. Wissenschaftler sind stets darauf angewiesen, Arbeiten anderer Personen zu verwenden, damit etwa unnötige Wiederholungen eines Experiments verhindert werden und damit man den Ursprung und die Entwicklung von Argumentationen nachvollziehen kann. Wissenschaftler arbeiten sozusagen auf den Schultern eines Riesen (d. h. auf der Erfahrung ihrer vielen Vorgänger): Zum Beispiel wird im einleitenden Text einer Dissertation mit Zitaten belegt, welche Aspekte des Themas schon bekannt sind und welche Wissenslücken noch bestehen. Das Gleiche gilt auch für Artikel in wissenschaftlichen Fachartikeln und anderen wissenschaftlichen Texten. Häufig gibt es einen Abschnitt oder Kapitel, der Forschungsstand heißt. In der Wissenschaft wird davon ausgegangen, dass ein Forscher die Literatur zu seinem Thema kennt und sich mit den bisherigen Erkenntnissen auseinandergesetzt hat (Autopsieprinzip). Wenn man etwas von einem anderen Autor übernimmt, muss man die Quelle und gegebenenfalls die Art der Übernahme deutlich machen, sonst setzt man sich dem Vorwurf des Plagiats aus (siehe auch Betrug und Fälschung in der Wissenschaft). Das Zitieren und die Quellenangabe haben folgenden Sinn: Wissenschaftliche Arbeit ist Arbeit in einer wissenschaftlichen Gemeinschaft; es soll bereits getätigte Arbeit nicht unnötigerweise wiederholt werden. Wissenschaftliche Arbeit muss nachprüfbar sein, daher muss genau angegeben werden, worauf man sich beruft. Wissenschaftliche Arbeit muss anerkannt werden. Die Übernahme von Erkenntnissen ohne Erwähnung des benutzten Autors ist geistiger Diebstahl; sie ist unmoralisch und kann soziale und rechtliche Folgen haben. Den richtigen Umgang mit Zitaten lernt man im Studium. Diesen zu beherrschen ist besonders wichtig für Hausarbeiten und Abschlussarbeiten wie die Bachelorarbeit oder die Masterarbeit. Um diese Techniken zu erlernen, bieten Universitäten häufig Tutorien oder Kurse an. Gesetzeszitate Gesetzeszitate dienen in der Rechtswissenschaft und der Rechtsprechung als Rechtsquelle zur Klärung einer bestimmten Rechtsfrage oder als Hinweis auf eine vorhandene Rechtsvorschrift. Das ist einer der Gründe für vorhandene Rechtsnormen, nämlich im Alltag zitiert zu werden. Auch in der Rechtswissenschaft, Rechtsprechung und juristischen Fachliteratur sind Aussagen zu begründen. Dies erfolgt durch Argumente mit Nachweisen, wobei die Gesetzeszitate zu den Standardargumenten gehören. Dabei werden Rechtsnormen regelmäßig nicht ausgeschrieben, sondern unter Angabe der Einteilungseinheit (Artikel [Art.] oder Paragraph [§]) und gegebenenfalls weiterer Untergliederung (Absatz, Halbsatz, Nummer usw.) und Gesetzesangabe zitiert. So ist nach Abs. 1 BGB beim Kaufvertrag der Verkäufer einer Sache verpflichtet, dem Käufer die Sache zu übergeben und das Eigentum an der Sache zu verschaffen. Der Käufer wiederum ist gemäß § 433 Abs. 2 BGB verpflichtet, dem Verkäufer den vereinbarten Kaufpreis zu zahlen und die gekaufte Sache abzunehmen. Wissenschaftliche Zitierrichtlinien In der theoretischen wissenschaftlichen Arbeit werden Thesen auf Basis vorhandener Literatur entwickelt oder überprüft. Dabei soll durch das Zitat die Referenz auf die zugrundeliegende Literatur dargestellt werden. Bei kurzen Zitaten (ein Wort, ein Satzteil) ist darauf zu achten, dass die zitierte Textstelle in sich sinnvoll ist oder durch den Satzzusammenhang entsprechend ergänzt wird. Generell muss geprüft werden, ob ein Werk überhaupt zitierfähig ist. Regelwerke, die angeben, wie man mit Quellen in Texten umgeht und die entsprechenden Belege für diese Quellen anführt (Zitationsmanuale), können nach wissenschaftlicher Disziplin und Sprache der Veröffentlichung variieren. Im Fach Psychologie stellt beispielsweise das Publication Manual of the American Psychological Association (APA) Richtlinien zur Gestaltung englischsprachiger Texte zur Verfügung, für die Erstellung deutscher Texte gelten die Richtlinien der Deutschen Gesellschaft für Psychologie (DGPs). Für medizinische Texte gibt es Regularien der American Medical Association (AMA). Vor allem im englischen Sprachraum wird auch The Chicago Manual of Style (CMOS) verwendet, das vor über 100 Jahren entwickelt wurde. International verbreitet ist die Harvard-Methode, die jedoch ebenfalls nach örtlichen Konventionen unterschiedlich umgesetzt wird. Innerhalb eines Textes ist eine einheitliche Zitierweise durchzuhalten. Wörtliches Zitat Ein wörtliches oder direktes Zitat muss formal und inhaltlich völlig mit dem Original, auch Hervorhebungen (Unterstreichungen, gesperrt Gedrucktes etc.) und eigenwillige Zeichensetzung, übereinstimmen. Es wird durch Anführungszeichen gekennzeichnet, ein Zitat innerhalb eines wörtlichen Zitats wird durch halbe Anführungszeichen (‚Text‘) markiert. Wörtliche Zitate sollten eingesetzt werden, wenn nicht nur der Inhalt der Aussage, sondern auch deren Formulierung von Bedeutung ist. Ist das nicht der Fall, ist eine sinngemäße Wiedergabe in Form eines indirekten Zitats vorzuziehen. Eigene Hervorhebungen oder eingeschobene Erläuterungen – in eckigen Klammern – müssen durch einen Hinweis (wie Hervorhebung des Verfassers oder Erläuterung der Redaktion) herausgestellt werden. Beispiel: „Es darf nicht die Impression [gemeint ist wohl: der Eindruck, A.K.] entstehen, die Additiones [Hinzufügungen, A.K.] stünden so bereits in der Vorlage“ (Hervorhebung A.K.), wobei A.K. für die Initialen des Autors steht. Auch grammatikalische (etwa im Kasus) oder typografische (etwa Wechsel zwischen Groß- und Kleinschreibung) Änderungen werden durch eckige Klammern markiert. Fehler oder Falschschreibungen im Original sollten durch ein sic gekennzeichnet werden, um einerseits das Original nicht zu verändern, andererseits aber auch den Zitierenden nicht in Verdacht zu bringen, selbst den Fehler eingebaut zu haben. Auslassungen (Ellipsen) einzelner oder mehrerer Wörter sind durch Auslassungspunkte und runde oder eckige Klammern (z. B. (…) oder […]) kenntlich zu machen. Dabei ist darauf zu achten, dass die Auslassungen den Sinn nicht entstellen. Auslassungen von nur einem Wort können mit zwei Punkten (..) gekennzeichnet werden. Wird ein längeres wörtliches Zitat in eine eigene Arbeit eingebaut, so erfolgt die Kennzeichnung zusätzlich durch Einrücken. Sinngemäßes Zitat Das indirekte Zitat erfolgt zur Abgrenzung von eigenen Aussagen zweckmäßigerweise in indirekter Rede im Konjunktiv. Es wird häufig zusätzlich gekennzeichnet durch den Namen des Verfassers und einer Anmerkung wie vgl.; vgl. hierzu: … oder sinngemäß nach …. Auch die sinngemäße Wiedergabe fremder Äußerungen (Entlehnung) kann entsprechend gekennzeichnet werden. Eine sinngemäße Wiedergabe ist wie ein wörtliches Zitat durch genaue Quellenangabe kenntlich zu machen. Quellenangabe Alle Zitate müssen durch eine genaue Quellenangabe ergänzt werden, diese kann auf verschiedene Arten erfolgen. Der Gebrauch verschiedener Zitationssysteme wird von Fach zu Fach unterschiedlich geregelt. Folgende Systeme sind vor allem in den Geisteswissenschaften geläufig: Chicago Manual of Style: Sowohl Fußnoten/Endnoten als auch „Autor-Datum“-Angaben werden durch „Chicago Style“ geregelt. Somit ist die oft in deutschen Quellen zu lesende Information falsch, dass „Chicago Style“ eine einzige Zitationsform impliziere. Für weitere Einzelheiten und genaue Lösungen in komplizierten Zitationsfällen siehe: http://www.chicagomanualofstyle.org/home.html. Modern Language Association (MLA): Sowohl Fußnoten/Endnoten als auch „Autor-Datum“-Angaben werden ebenfalls durch „MLA Style“ geregelt. Sie unterscheiden sich jedoch in einigen Einzelheiten von „Chicago Style“. Harvard-Zitation: Auch als „parenthetische Zitierweise“ oder Autor-Jahr-Zitierweise bezeichnet. Hier wird die zitierte Quelle mit Verfasserangabe, Erscheinungsjahr und gegebenenfalls Seite direkt – in Klammern gesetzt – im Text genannt (Theisen 2004). Die Autor-Jahr-Zitierweise stammt nicht von der Harvard University und wird von ihr auch nicht geregelt. Es gibt keine Publikationen wie bei Chicago oder MLA, die Problemfälle und Veränderungen in der Zitationspraxis offiziell regelt. Somit bietet der sogenannte „Harvard Style“ einige Richtlinien zu Zitationsformen, wird aber nicht von wissenschaftlichen Verlagen in angelsächsischen Ländern als Vorlage für Stilfragen verwendet. Die Quellenangabe kann in Form eines Vollbelegs in der Fußnote oder als Kurzbeleg am Schluss der gesamten Arbeit aufgeführt werden. Beim Kurzbeleg sind dabei verschiedene Formen üblich. Der platzsparendste, aber am wenigsten aussagekräftige Zitierstil ist die fortlaufende Nummerierung aller zitierten Quellen. Insbesondere in der Informatik üblich ist eine Kombination der ersten drei Buchstaben des Autorennamens und der letzten beiden Ziffern des Erscheinungsjahres (z. B. „The04“ für „Theisen 2004“). Wohl am weitesten verbreitet ist der vollständige Verfassername mit Erscheinungsjahr, wobei mehrere Quellen desselben Autors innerhalb eines Jahres durch fortlaufende Buchstaben kenntlich gemacht werden (z. B. „Theisen 2004c“). Weniger üblich, aber am aussagekräftiger ist die Quellenangabe unter Hinzufügung eines Schlagwortes, das den mit der Materie vertrauten Leser zumeist bereits die zitierte Quelle erkennen lässt, z. B. in der Form „Theisen (Wissenschaftliches Arbeiten, 2004)“. Obwohl mehrere Zitierstile bzw. Zitiertechniken zur Verfügung stehen, werden in einem Dokument üblicherweise nicht mehrere verwendet; ein ausgewählter Zitierstil wird im gesamten Dokument konsequent beibehalten. In den unterschiedlichen Fächern gibt es verschiedene Zitierrichtlinien für das Anführen gedruckter Literatur. Wird aus zweiter Hand zitiert, also aus einem Werk, das der Verfasser selbst nicht eingesehen hat, so wird in der Fußnote zuerst die Originalquelle genannt, gefolgt von „zitiert bei“/„zit. bei“/„zitiert nach“/„zit. nach“ und dem Werk, das der Verfasser eingesehen hat. Allgemein ist zur Quellenangabe zu sagen, dass es keinen einheitlichen Zitierstil gibt. Jede Hochschule hat hier i. d. R. ihre eigenen Vorgaben. Innerhalb eines Werkes sollte immer einheitlich zitiert werden, d. h., sowohl in der Fußnote als auch im Quellenverzeichnis am Ende der Arbeit sind die gleichen Formatierungen bei den Zitaten zu verwenden. Zitieren aus Verfasserschriften (Monografien) Beim Zitieren aus Büchern wird angegeben: Vorname und Familienname des Verfassers ist kein Verfasser angegeben, dann „o. V.“ = „ohne Verfasserangabe“ bis zu drei Verfasser werden jeweils komplett ausgeschrieben, bei mehr als drei Verfassern sind nach dem Erstautor die Abkürzungen „u. a.“ oder „et al.“ üblich (z. B. „Theisen et al. 2004“) Titel des Buches (eventuell) Übersetzer Auflage Verlagsort; bei mehr als drei Verlagsorten wird, wie bei den Verfassern, zumeist abgekürzt. Verlagsname Verlagsjahr; ist kein Verlagsjahr angegeben, dann „o. J.“ = „ohne Jahresangabe“ Seitenangabe; erstreckt sich die zitierte Stelle über die folgende Seite, so ist dieses mit dem Zusatz „f.“ zu kennzeichnen. Erstreckt sie sich über mehrere folgende Seiten, so ist der Zusatz „ff.“ notwendig Daraus kann sich z. B. folgendes Schema ergeben: Chicago Manual of Style (bei Fußnoten/Endnoten + Literaturliste): Verfassername, Vorname. Titel. Nebentitel. Ort: Verlag, Jahr. Chicago Manual of Style (bei Autor-Datum im Text + eine Literaturliste): Verfassername, Vorname. Jahr. Titel. Nebentitel. Ort: Verlag. MLA (bei Eingeschobene Verweise im Text + eine Literaturliste) Verfassername, Vorname. Jahr. Titel. Nebentitel. Ort: Verlag, Jahr. Gedruckt. Zitieren aus Zeitschriftenaufsätzen oder Zeitungsartikeln Beim Zitieren aus Zeitschriftenaufsätzen Vorname und Familienname des Verfassers. In Zeitungsartikeln werden diese teilweise nicht genannt, dann die Autoren-Signatur oder den Herausgeber angeben. Titel des Aufsatzes Zeitschriftentitel erschienen in Nummer des Jahrgangs (= Band) Heftnummer Jahreszahl Seitenangabe Daraus kann sich z. B. folgendes Schema ergeben: Chicago: Fußnoten / Endnoten + Literaturliste Literaturliste: Nachname, Vorname. „Titel: Nebentitel.“ Zeitschriftentitel Band, no. Heft (Jahr): y–z. Bsp.: Olson, Hope A. „Codes, Costs, and Critiques: The Organization of Intermation in Library Quarterly, 1931–2004.“ Library Quarterly 76, no. 1 (2006): 19–35. Fußnote: Vorname Nachname, „Titel: Nebentitel,“ Zeitschriftentitel Band, no. Heft (Jahr): y–z. Bsp.: 1. Hope A. Olson, „Codes, Costs, and Critiques: The Organization of Intermation in Library Quarterly, 1931–2004,“ Library Quarterly 76, no. 1 (2006): 19–35. Chicago: Autor-Datum im Text + eine Literaturliste Nachname, Vorname. Jahr. „Titel: Nebentitel.“ Zeitschriftentitel Band (Heft): y–z. Bsp.: Mnookin, Robert, and Lewis Kornhauser. 1979. „Bargaining in the Shadow of the Law: The Case of Divorce.“ Yale Law Journal 88 (5): 950–97. MLA: Eingeschobene Verweise im Text + eine Literaturliste Nachname, Vorname. „Titel: Nebentitel.“ Zeitschriftentitel Band Heft (Jahr): y–z. Gedruckt. Zitieren aus Sammelwerken (Herausgeberschriften) Vorname und Familienname des Verfassers Titel des Aufsatzes Titel des Sammelwerkes = „in“ Name des Herausgebers = „Hrsg. …“ Auflage Verlag Verlagsort Verlagsjahr Seitenangabe Daraus kann sich z. B. folgendes Schema ergeben: Verfassername, Vorname: Titel. Nebentitel. Hrsg. von Vorname Name. Auflage. Verlag, Ort Jahr (=Reihentitel). Titelangaben bei Aufsätzen in Herausgeberschriften folgen dem gleichen Schema, jedoch werden die Seitenzahlen zusätzlich angegeben: Verfassername, Vorname: Titel. Nebentitel. Hrsg. von Vorname Name. Auflage. Verlag, Ort Jahr (=Reihentitel). S. x–y. Wird eine Quelle mehrfach zitiert, so genügt vom zweiten Mal an die Nennung des Verfassers mit dem Hinweis „am angeführten Ort (a. a. O.) + Seitenangabe“ oder, wenn sich wiederholt auf die gleiche Seite bezogen wird, auch „ebenda“ (ibidem); Bsp: Hegemann, Heinen, Scholz: Wirtschafts- und Soziallehre. Teil 1. 4. Auflage. Köln-Porz 1976. S. 160; im Folgenden zitiert als: Hegemann, Heinen, Scholz, a. a. O., S. … oder (ebenda). Zitieren aus Lexikonartikeln Sofern der Autor bekannt ist, kann sich folgendes Schema ergeben: Verfassername, Vorname: Lemma. In: Lexikon-Name. Hrsg. von Vorname Name. Ort: Verlag Jahr. S. x–y. Ist kein Autor vorhanden, kann folgendermaßen verfahren werden: [Art.] Lemma. In: Lexikon-Name. Hrsg. von Vorname Name. Ort: Verlag Jahr. S. x–y. Tabellen und Diagramme Jede Tabelle ist mit einer Überschrift zu versehen. Am Kopf jeder Tabelle steht ausgeschrieben das Wort „Tabelle“ mit der jeweiligen Nummer. Alle Zahlenangaben sind durch Fußnoten nachzuweisen. Alle Zahlen in Tabellen und Diagrammen sind mit Quellenangaben zu versehen. Bedeutung Für Autoren zitierter Werke spielen Zitate eine wesentliche Rolle zur Bildung von Reputation. Zur Recherche und Analyse von Zitationen gibt es spezielle Zitationsdatenbanken. Die Zitationsanalyse untersucht im Rahmen der Szientometrie, der quantitativen Erforschung wissenschaftlicher Prozesse, sogenannte Zitationsgraphen, das sind Netzwerke von Publikationen, die durch Zitationen miteinander verbunden sind. Als indirekte Beziehungen aufgrund von Zitationen treten dabei Kozitation und Bibliografische Kopplung auf. Die Zitationsanalyse hat eine Reihe von Regelmäßigkeiten in Zitationsgraphen festgestellt. Ihre etwa seit Ende der 1950er Jahre stattfindende Anwendung zur Beurteilung von wissenschaftlicher Leistung ist umstritten. Auch der Umstand, dass Publikationen nicht oder nicht richtig zitiert werden, kann untersucht werden. Das Phänomen des Nicht-Zitierens wird in der Szientometrie als Uncitedness bezeichnet. Es wird vermutet, dass ein wesentlicher Teil der zitierten Literatur vom Autor nicht gelesen wurde. Linda C. Smith stellte in einer Studie zur Zitierung des bekanntesten Werkes von Vannevar Bush fest, dass die Autoren das Werk aus dem Zusammenhang gerissen zitierten, um beliebige Aussagen zu belegen, die teilweise sogar im Widerspruch zu dem zitierten Artikel standen. Zitieren im Internet Bei Diskussionen im Internet, zum Beispiel per E-Mail (z. B. in Mailinglisten) oder in Diskussionsforen, bei denen man sich auf andere Diskussionsteilnehmer bezieht, ist es oft notwendig, das Gesagte zu zitieren. Dort spricht man auch oft vom quoting ( für „Zitieren“). Viele Diskussionsteilnehmer stört es, wenn das Zitat dabei nicht klar als solches markiert ist oder wenn mehr als notwendig zitiert wird. Zitatensammlungen Dudenredaktion (Hrsg.): Zitate und Aussprüche. 4., überarbeitete und erweiterte Auflage. Dudenverlag, Berlin 2017, ISBN 978-3-411-04124-4 (= Der Duden in zwölf Bänden – Band 12; Herkunft, Bedeutung und Gebrauch von 7.500 Zitaten von der Antike bis heute). Digitale Bibliothek (Produkt), Bd. 27: In medias res. Lexikon lateinischer Zitate und Wendungen 4. Ausgabe, 2006, ISBN 978-3-89853-227-3. Muriel Kasper: Reclams Lateinisches Zitaten Lexikon, Philipp Reclam jun., Stuttgart 1996, ISBN 3-15-029477-0. K. Peltzer, R. von Normann: Das treffende Zitat. Gedankengut aus drei Jahrtausenden und fünf Kontinenten. 10. Auflage, Ott, Thun (Schweiz) 1991. Siehe auch Vollzitat Literatur Uwe Böhme und Silke Tesch: Zitieren: warum und wie? Nachr. Chem., Vol. 62 (2014) 852-857,. Weblinks Zitat aus einem Urteil Beispiele und Online-Übungen rund um das Zitat, Zitierregeln und Anmerkungen Einzelnachweise Urheberrecht Wissenschaftliche Arbeit
Q206287
167.804811
8241
https://de.wikipedia.org/wiki/Implementierung
Implementierung
Eine Implementierung – auch Implementation (über ‚Ausführung‘, ‚Durchführung‘; von spätlateinisch implementum ‚Gerät‘ zu ‚anfüllen‘, ‚erfüllen‘) genannt – ist das Implementieren oder das Implementiertwerden, also die Realisierung oder Umsetzung von festgelegten Strukturen und Prozessabläufen in einem System unter Berücksichtigung von Rahmenbedingungen, Regeln und Zielvorgaben, im Sinne einer Spezifikation. Beispiele Softwaretechnik In der Softwareentwicklung ist die Implementierung das Umsetzen eines Algorithmus oder Softwareentwurfs in ein Computerprogramm; siehe auch Softwaretechnik und Programmierung. Man implementiert unter dem Betriebssystem in einer Programmiersprache auf einer Prozessorfamilie eine bestimmte Software. Konkret wurde z. B. „unter UNIX in LISP auf SPARC der Editor micro-emacs implementiert“. Ein weiteres Beispiel ist die Implementierung eines Datenbankmodells durch Umsetzung der Modellierung auf konkrete Schemata. Politik Die Durchführung eines Gesetzentwurfs wird als Implementierung bezeichnet. Implementation ist eine politik- und verwaltungswissenschaftliche Bezeichnung für den Prozess der inhaltlichen Umsetzung von Gesetzen, Verordnungen usw. in konkrete Tatsachen und materielle Leistungen. Die Implementation politischer, meist parlamentarischer Entscheidungen ist in erster Linie eine Aufgabe der verschiedenen Ebenen staatlicher und kommunaler Verwaltung. Weblinks Einzelnachweise Projektmanagement Software
Q245962
87.025554
282091
https://de.wikipedia.org/wiki/Eta
Eta
Das Eta (griechisches Neutrum , neugriechisch ; Majuskel Η, Minuskel η) ist der 7. Buchstabe des griechischen Alphabets und hat nach dem milesischen System den Zahlwert 8. Herkunft Das H-Zeichen wurde zuerst als „heta“ übernommen und später zum „eta“ verändert. Da jetzt für den Laut „H“ ein Zeichen fehlte, wurde der Buchstabe „H“ mittig senkrecht halbiert und die beiden Hälften verwendet: Für den Laut „H“ am Anfang eines mit Vokal [oder R] anfangenden Wortes wurde die linke Hälfte des Großbuchstaben „H“, für das Anlauten eines Wortes nur mit Vokal (ohne Hauch) die rechte Hälfte des Großbuchstabens „H“ verwendet, woraus sich dann bei den Kleinbuchstaben die beiden Zeichen „Spiritus asper“ und „Spiritus lenis“ entwickelten. Im heutigen Griechischen wird Eta wie i ausgesprochen. Im Alphabet des Kildinsamischen von 1878, das ansonsten nur kyrillische Buchstaben aus dem damaligen Alphabet des Russischen verwendet, steht der Buchstabe Eta für den stimmhaften velaren Nasal. Verwendung In der Analysis wird das kleine Eta (η) gerne als „Partner“ zum lateinischen kleinen Y verwendet, z. B. . In der Volkswirtschaftslehre steht das kleine Eta (η) für ökonomische Elastizität. In der Mathematik werden zwei verschiedene Funktionen als Eta-Funktion bezeichnet: die dirichletsche Etafunktion und die dedekindsche Etafunktion. In der Statistik wird es als Effektstärkemaß für Varianzanalysen verwendet. Im Segelflug bezeichnet η die aerodynamische Gleitzahl. Physik, Chemie, Technik In der Astronomie ist η meist der sechs- bis achthellste Stern im jeweiligen Sternbild und die nähere Bezeichnung dreier Meteorströme (Eta-Aquariiden, Eta-Cariniden und Eta-Lyriden), weil es in deren Sternbildern mehrere Radianten gibt. In der Relativitätstheorie bezeichnet das kleine Eta (η) den Minkowski-Tensor. In der Elementarteilchenphysik bezeichnet das kleine Eta das η-Meson. In der Hochenergiephysik hingegen die Pseudorapidität, eine Koordinate in Experimenten mit hochenergetischen Teilchenstrahlen. In der Strömungslehre bezeichnet das kleine Eta (η) die dynamische Viskosität. Im technischen Bereich steht η oft für den Wirkungsgrad. In der Elektrotechnik gelegentlich für das Frequenzverhältnis eines Schwingkreises. und in der Lichttechnik wird η für die Lichtausbeute verwendet. In der Luft- und Raumfahrttechnik bezeichnet η die Größe des Höhenruder-Ausschlags. In der Geotechnik (Bauingenieurwesen) bedeutet η den globalen Sicherheitsbeiwert. In der Meteorologie die absolute Vorticity. In der Komplexchemie gibt η die Haptizität eines über mehrere benachbarte Zentren koordinierenden Liganden an. In der Informatik wird η als Lernrate für künstliche neuronale Netze verwendet. Beispiele Elektra (Ἠλέκτρα = Ēléktra) Heraklit (Ἡράκλειτος = Hērákleitos) Weblinks Einzelnachweise Griechischer Buchstabe Η
Q14396
108.1242
83646
https://de.wikipedia.org/wiki/Spiralgalaxie
Spiralgalaxie
Eine Spiralgalaxie, veraltet auch Spiralnebel, ist eine scheibenförmige Galaxie, deren Erscheinung ein Spiralmuster zeigt. Der Zentralbereich, Bulge genannt, ist sphäroidal und besteht hauptsächlich aus älteren Sternen. Die Scheibe zeigt eine Spiralstruktur mit meist mehreren Spiralarmen. Spiralgalaxien enthalten in der Scheibe verhältnismäßig viel Gas. Dadurch können permanent neue Sterne gebildet werden. Die Spiralarme erscheinen durch die hier neugebildeten Sterne bläulich. Eingebettet ist die Galaxie in einen Halo unsichtbarer Dunkler Materie. Zusammen mit den lentikulären Galaxien werden Spiralgalaxien auch als Scheibengalaxien zusammengefasst. Galaxien, bei denen vom Bulge ausgehend ein Balken sichtbar ist, an dem die Spiralarme ansetzen, nennt man Balkenspiralgalaxien. Die Milchstraße selbst ist eine Balkenspiralgalaxie. In einem Umkreis von etwa 30 Millionen Lichtjahren um die Milchstraße sind rund 34 Prozent der Galaxien Spiralgalaxien, 13 Prozent elliptische Galaxien und 53 Prozent irreguläre Galaxien und Zwerggalaxien. Entdeckung Die ersten Teleskop-Beobachter wie Charles Messier erkannten in den nebeligen Flecken am Himmel keine weiteren Strukturen und konnten daher zwischen Galaxien und Nebeln keine Unterscheidung treffen. Erst 1845 erkannte William Parsons, 3. Earl of Rosse mit seinem zu diesem Zeitpunkt größten Teleskop der Welt die Spiralstruktur von einigen dieser nebeligen Flecken, zuerst an der Whirlpool-Galaxie. Jedoch war weiterhin unklar, ob diese Nebel ein Teil der Milchstraße, oder eigenständige und weit entfernte Objekte sind. Diese Unklarheit war zentrales Thema bei der Großen Debatte, die 1920 zwischen den Astronomen Harlow Shapley und Heber Curtis stattfand. Erst 1926 entdeckte Edwin Hubble in mehreren „Spiralnebeln“ Cepheiden, eine bestimmte Art von periodischen variablen Sternen, deren Leuchtkraft eng mit der Periode korreliert, sodass sich ihre Entfernung feststellen lässt. Dadurch wurde klar, dass Spiralgalaxien sehr weit entfernte Objekte sind. Im Jahr 1936 beschrieb er die Spiralgalaxien in seinem Buch The Realm of the Nebulæ genauer. Struktur Bei einer Spiralgalaxie lassen sich folgende Strukturen erkennen: Eine flache und rotierende Scheibe von Sternen, Gas und Staub. Die Scheibe kann aufgeteilt werden in eine dünne Komponente, welche viel Gas und neugebildete Sterne enthält, und eine dicke Scheibe, die vorwiegend ältere Sterne enthält. Die dünne Scheibe enthält 65 % der sichtbaren Masse der Galaxie, die dicke Scheibe nur 5 %. Eine zentrale Komponente, Zentralkörper oder Bulge genannt. Dieser besteht hauptsächlich aus älteren Sternen. Der Zentralkörper enthält 33 % der sichtbaren Materie. Es wird inzwischen als sicher angenommen, dass sich im Zentrum jeder Galaxie ein supermassives Schwarzes Loch befindet. Der galaktische Halo besteht aus weit verstreuten, älteren Sternen und einer Vielzahl von Kugelsternhaufen, die die Galaxie langsam umkreisen. Der Halo trägt nur 1 % zur sichtbaren Materie bei. Er enthält jedoch 95 % der gesamten Materie der Galaxie in Form von Dunkler Materie. Entstehung Lange glaubte man, dass Spiralgalaxien, wie sie zahlreich in unserer galaktischen Umgebung vorkommen, in der Frühzeit des Universums fehlen würden, da der Aufbau einer hoch entwickelten Galaxienstruktur Zeit benötigen und durch die häufig im jungen Universum stattfindenden Galaxienverschmelzungen gestört würde. Im Jahr 2021 wurde bei einer Rotverschiebung von entsprechend einer Entfernung von 12,4 Milliarden Lichtjahren mit Hilfe des ALMA-Radioteleskops ein rotierendes Objekt mit hoher Sternentstehungsrate entdeckt, bei dem die Astrophysiker zwei gegenüberliegende Spiralarme oder Gezeitenschweife ausmachten. Das Geschwindigkeitsprofil, erschlossen aus der Dopplerverschiebung der Radiofrequenzlinien des ionisierten Kohlenstoffs in Abhängigkeit der Entfernung vom Zentrum, war das einer rotierenden Gasscheibe mit hoher zentraler Massendichte, vereinbar mit der Existenz eines Bulge mit einem zentralen Schwarzen Loch. Daher sehen die Astrophysiker im Objekt BRI 1335-0417 die komplette Morphologie und Dynamik einer Spiralgalaxie realisiert (und zwar der ältesten bisher bekannten), über deren Entstehung schon 1,4 Milliarden Jahre nach dem Urknall allerdings nur Vermutungen geäußert werden können. Morphologie Klassifizierung nach dem Hubble-Schema Das am weitesten verbreitete Ordnungsschema für Galaxien ist das Hubble-Schema. Hierin werden die Galaxien nach ihrem visuellen Eindruck klassifiziert. Obwohl das Hubble-Schema keine Entwicklungsgeschichte der Galaxien ableiten lässt, so lassen sich doch viele physikalische Eigenschaften den einzelnen Klassen zuordnen. Spiralgalaxien werden nach dem Verhältnis der Helligkeit des Bulges und der Scheibe sowie dem Öffnungswinkel der Spiralarme in die Klassen Sa bis Sd eingeordnet (genauer als SAa bis SAd). Balkenspiralen erhalten die Bezeichnungen SBa bis SBd. Diese Galaxien haben einen vom Zentrum ausgehenden langen Balken, an dessen Ende die Spiralarme ansetzen. Vergleicht man die unterschiedlichen Klassen von Sa nach Sd, so stellt man folgende Eigenschaften fest: Von Sa nach Sd wächst der Gasgehalt in der Galaxie. Damit wächst auch die Anzahl junger Sterne und die Sternentstehungsrate. Von Sa nach Sd wächst das Verhältnis von Scheibe zu Zentralkörper. Von Sa nach Sd nimmt der Öffnungswinkel der Spiralarme zu, von etwa 6° bei Sa-Galaxien auf ca. 18° bei Sc-Galaxien. Ausprägung der Spiralstruktur Spiralgalaxien lassen sich auch anhand der Ausprägung des Spiralmusters einteilen. Grand Design-Spiralgalaxien zeigen zwei klar definierte und symmetrische Spiralarme. Diese machen 10 % bis 20 % der bekannten Spiralgalaxien aus. Flocculent Spiral-Galaxien zeigen eine zerrissene Struktur. Ganze Spiralarme lassen sich nicht verfolgen, teilweise sind nur Ansätze von Armen vorhanden. Etwa 20 bis 30 % der Spiralgalaxien zeigen diesen Typ. Ungefähr 60 % der Spiralgalaxien zeigen mehr als zwei Spiralarme. Sehr selten sind einarmige Spiralgalaxien, genannt Magellanic Spiral. Diese werden nach ihrem Vorbild, der Großen Magellanschen Wolke, bezeichnet. Die Leuchtkraft einer Galaxie korreliert mit der Ausprägung der Spiralstruktur. Deshalb lässt sich auch eine Einteilung in so genannte Leuchtkraftklassen (römisch I-V) erstellen. Diese Einteilung erweitert die Hubble-Klassifikation. Leuchtkraftklasse I: hohe Flächenhelligkeit, gut ausgeprägte Spiralarme Leuchtkraftklasse III: zerrissene und kurze Spiralarme Leuchtkraftklasse V: nur noch Spiralarmansätze vorhanden Beispiele / Tabelle Ansicht Da Spiralgalaxien im Prinzip die Form einer dünnen Scheibe haben, ändert sich der Eindruck sehr stark je nach Sichtwinkel auf die Galaxie. Bei der so genannten „Face On“-Ansicht sieht man frontal auf die Galaxie, und man kann die gesamte Spiralstruktur erkennen. Bei „Edge On“ sieht man auf die Kante der Scheibe. Hier sieht man meist eine horizontale Zweiteilung durch dunkle Staubregionen entlang der Kante. Drehrichtung Bei ersten Analysen der Himmelsdurchmusterung Sloan Digital Sky Survey kam die Theorie auf, dass sich Spiralgalaxien bevorzugt in eine Richtung drehen. Um dies zu bestätigen oder zu widerlegen wurde das Online-Projekt Galaxy Zoo ins Leben gerufen, bei dem tausende Amateure Galaxienbilder nach deren Drehrichtung bewerteten. Eine bevorzugte Drehrichtung stellte sich hierbei jedoch nicht heraus. Physik Scheibe Rotationskurve Bei Spiralgalaxien, die von der Seite zu sehen sind, lässt sich mit Hilfe des Dopplereffekts messen, wie schnell die Scheibe rotiert: Eine Hälfte der Scheibe kommt auf den Betrachter zu und zeigt eine Blauverschiebung, und die andere Hälfte zeigt eine Rotverschiebung. Mit Hilfe der Keplergesetze kann man vorhersagen, wie schnell sich ein Stern bei einer bestimmten Entfernung zum Zentrum um die Galaxie bewegen muss. Dabei wird auch berücksichtigt, dass die sichtbare Masse einer Galaxie nicht in einem Punkt konzentriert ist wie im Sonnensystem, sondern in der Scheibe verteilt ist. Bei den Messungen stellte sich jedoch heraus, dass die Umlaufgeschwindigkeit der Sterne mit dem Abstand zum Zentrum zuerst wie erwartet stark zunimmt. Aber statt einer Geschwindigkeitsabnahme mit größer werdender Entfernung zum Zentrum bleibt diese nahezu konstant bis zum Rand der Scheibe. Erklärt wird dies mit einem Halo von dunkler Materie, in dem die Galaxien eingebettet sind, die die Rotation der Scheibe stark beeinflusst. Dünne und dicke Scheibe Die Scheibe einer Spiralgalaxie lässt sich unterteilen in eine dünne Scheibe und eine dicke Scheibe. Diese Unterteilung wurde in der Milchstraße untersucht, und auch bei anderen Galaxien beobachtet. Die dünne Scheibe enthält relativ junge Sterne (< 9 Mrd. Jahre) mit einem hohen Metallgehalt. In ihr sind die Spiralarme und das interstellare Material eingelagert. Sie hat eine Dicke zwischen 100 und 400 pc. Die dicke Scheibe hat eine bis zur zehnfachen Höhe der dünnen Scheibe und besteht aus metallarmen, alten Sternen (> 12 Mrd. Jahre). Sie könnte aus Überresten von kleineren Galaxien bestehen, die beim Entstehen mit der Spiralgalaxie verschmolzen sind. Unterscheiden lassen sich diese beiden Komponenten eben durch das Alter und durch die Geschwindigkeiten der Sterne. Warp Bei einigen Spiralgalaxien ließ sich eine S-förmige Verbiegung der Scheibe feststellen. Die Verbiegung beginnt meist am Rand der sichtbaren Scheibe und setzt sich durch die ausgedehntere Gasscheibe fort. Diese Verbiegung wird Warp genannt und könnte durch Verschmelzungsprozesse mit kleineren Galaxien entstehen. Untersuchungen ergaben, dass mindestens 50 % aller Spiralgalaxien einen Warp enthalten. Gasscheibe Der hauptsächliche Anteil des Gases in der Scheibe besteht aus neutralem Wasserstoff. Dabei dehnt sich die Gasscheibe weit über die sichtbare Sternscheibe aus, teilweise bis zum doppelten Durchmesser. Darin eingebettet sind kältere Molekülwolken, in denen die Sternentstehung beginnt. Sobald aus den kollabierten Molekülwolken Sterne entstehen, so ionisieren die leuchtkräftigsten von ihnen das umgebende Gas. Dabei entstehen HII-Regionen, die expandieren und dadurch Hohlräume in der neutralen Gasscheibe erzeugen. Spiralstruktur Das markanteste Kennzeichen der Spiralgalaxien sind deren Spiralarme. Die Sterne selbst können keine feste Spiralstruktur bilden, da sich dann die Spiralarme aufgrund der differentiellen Rotation der Galaxie nach einigen galaktischen Umdrehungen immer enger um das Zentrum wickeln würden. Um die Bildung der Spiralstruktur zu erklären, wurden mehrere Theorien aufgestellt, die die beobachteten Strukturen gut erklären können. Bertil Lindblad stellte bereits 1925 die Theorie auf, dass die Umlaufbahnen der Sterne in Galaxien in Resonanz zueinander stehen. Dadurch werden die Umlaufbahnen zueinander synchronisiert und es entstehen Dichtewellen. Diese Theorie der Dichtewellen wurde von Chia-Chiao Lin und Frank Shu in den 1960er Jahren weiterentwickelt. Die Sterne und Gaswolken bewegen sich bei ihrer Bahn um die Galaxie mehrfach in eine solche Dichtewelle hinein und wieder hinaus. Dabei wird das Gas komprimiert, es entstehen neue Sterne. Die massereichsten und dadurch sehr kurzlebigen unter ihnen leuchten hell und blau und markieren so die Spiralarme. Durch ihre kurze Lebenszeit verlassen sie nie den Spiralarm, sondern explodieren vorher und fördern durch die dabei auftretenden Stoßwellen die weitere Sternentstehung. Eine Dichtewelle lässt sich gut mit einem Stau hinter einer Wanderbaustelle auf der Autobahn vergleichen. Autos fahren in den Stau hinein (die Verkehrsdichte erhöht sich) und nach der Baustelle wieder hinaus. Die Wanderbaustelle bewegt sich langsam mit konstanter Geschwindigkeit voran. Auch wenn es so aussieht, als ob die Sterne nur in den Spiralarmen existierten, gibt es auch zwischen den Armen verhältnismäßig viele Sterne. Im Bereich eines Spiralarms beträgt die Dichte etwa 10 bis 20 Prozent mehr als außerhalb des Arms. Sterne und Gasmassen in der Umgebung werden dadurch etwas stärker angezogen. Die „Stochastic self-propagating star formation“-Theorie versucht, die Spiralstruktur durch Stoßwellen im interstellaren Medium zu erklären. Hierbei entstehen durch Supernova-Explosionen Stoßwellen, die wiederum die Sternbildung in Gas fördern. Durch die differentielle Rotation der Galaxie entsteht so ein Spiralmuster. Diese Theorie kann jedoch nicht die großräumigen und symmetrischen Spiralstrukturen erklären, wie sie bei Grand-Design-Spiralen erkennbar sind. Umlaufbahnen der Sterne Die Sterne in der Scheibe bewegen sich alle in die gleiche Richtung in elliptischen Umlaufbahnen um den Mittelpunkt der Galaxie, jedoch nicht wie Planeten im Sonnensystem. Dafür ist die Masse der Galaxie nicht konzentriert genug. Nach einem Umlauf kehrt der Stern nicht an seinen Ausgangsort zurück, dadurch bildet die Bahn die Form einer Rosette. Zudem bewegt sich ein Stern durch die Anziehungskraft der Scheibe in der Scheibenebene auf und ab. Dadurch erhält die Scheibe ihre Dicke. Damit Sterne im Schwerefeld eines Balken gefangen bleiben, vollziehen diese komplizierte Bahnen. Die meisten Bahnen sind langgezogene Ellipsen entlang des Balkens, jedoch gibt es auch Schleifenbahnen und Umkehrungen in der Bewegungsrichtung. Die Sterne im Bulge und im Halo hingegen bewegen sich in allen möglichen Richtungen und unterschiedlichen Winkeln um die Galaxie. Balken Etwa 50 % der Spiralgalaxien zeigen eine Balkenstruktur. Ein Balken bildet sich aus, wenn die Umlaufbahnen der Sterne instabil werden und von einem eher runden Orbit abweichen. Die Bahnen werden länglicher und die Sterne beginnen, sich entlang des Balkens zu bewegen. In einem Resonanzverhalten folgen diesen weitere Sterne. Dadurch bildet sich eine axialsymmetrische und zigarrenförmige Störung aus, die als Balken sichtbar wird. Der Balken selbst rotiert als starre Struktur. Balken sind ein wichtiger Faktor in der Entwicklung der Galaxie, da sie Gas in großem Umfang zum Zentrum der Galaxie strömen lassen, und dort die Sternentstehung anfachen. Bulge Ein Bulge im Zentrum der Spiralgalaxie besteht hauptsächlich aus älteren, metallarmen Sternen. Einige Bulges haben ähnliche Eigenschaften wie eine elliptische Galaxie, andere sind nur verdichtete Zentren der Scheibe. Es wird angenommen, dass sich im Zentrum des Bulges ein massereiches Schwarzes Loch befindet. Die Masse des Schwarzen Loches scheint in direkter Beziehung zur Masse des Bulges zu stehen: Je größer die Masse des Bulges umso massereicher das Schwarze Loch. Halo und Korona Der sichtbare Bereich des Halos um eine Spiralgalaxie herum wird markiert durch eine große Anzahl von Kugelsternhaufen und einigen alten Sternen der Population II. Diese Objekte sind übriggeblieben, als sich das ursprüngliche Gas bei der Galaxienentstehung in der Scheibe sammelte. Die Kugelsternhaufen bestehen aus sehr alten, metallarmen Sternen und sind alle zur gleichen Zeit entstanden. Teilweise wird davon ausgegangen, dass der Halo aus Überresten von aufgesammelten kleinen Satellitengalaxien während der Galaxienentstehung besteht. Der hauptsächliche Bestandteil des Halos ist jedoch unsichtbar in Form von Dunkler Materie. Durch ihre Gravitationseinwirkung bestimmt diese Materie die gesamte Entwicklung der Galaxie. Die genaue Ausdehnung des Halos lässt sich meist nicht genau ermitteln. Eine weitere Komponente des Halos ist die Korona. Sie besteht aus Millionen Grad heißem Gas. Dieses Gas konnte mit dem Chandra Röntgenteleskop bei der Galaxie NGC 4631 nachgewiesen werden. Solch eine Gaskorona wurde erwartet aus der Entwicklung von Supernova-Überresten, die sich über die Scheibe hinaus ausdehnen und heißes Gas in den Halo transportieren. Kosmischer Materiekreislauf Spiralgalaxien sind sehr dynamische Systeme. Durch ihren hohen Gasanteil ist die Sternentstehung immer noch im Gange. Dadurch entstehen komplexe Wechselwirkungen zwischen den einzelnen Komponenten der Galaxie. Durch die oben beschriebenen Dichtewellen wird atomares Gas (HI) verdichtet, es bilden sich molekulare Gaswolken. Einige der molekularen Gaswolken beginnen zu kollabieren, und es entstehen in ihrem Inneren neue Sterne, sehr viele davon mit geringer Masse, einige wenige sehr massereiche. Diese massereichen Sterne explodieren sehr früh nach nur wenigen Millionen Jahren als Supernova. Durch die Explosionen wird das interstellare Medium mit schweren Elementen angereichert. Durch die Supernovae und Sternwinde wird Gas stark beschleunigt, es werden im umgebenden Gas Stoßfronten erzeugt. Diese verdichten wiederum weitere Gaswolken, mit denen der Sternentstehungszyklus wiederum von neuem beginnt. Durch die Supernova-Explosionen entstehen in der Gasscheibe auch so genannte , durch das beschleunigte und ionisierte Gas leergefegte Räume. Durch mehrere Explosionen können sich auch mehrere Blasen verbinden. Befindet sich so ein Leerraum am Rand der Scheibe, dann kann das heiße und ionisierte Gas durch den hier fehlenden Widerstand die Scheibenebene verlassen, und als galaktische Fontäne in den Halo aufsteigen. Dies könnte eine Quelle von so genannten Hochgeschwindigkeitswolken sein. Diese fallen zu einem späteren Zeitpunkt mit einer Geschwindigkeit von etwa 200 km/s auf die Scheibe zurück. Auch hierbei wird wieder ein Impuls für die weitere Sternentstehung gegeben. Magnetfeld Magnetfelder sind ein wichtiger Bestandteil im interstellaren Medium von Spiralgalaxien. Bei Spiralgalaxien wurden Magnetfelder beobachtet, die entlang der Spiralarmen ausgerichtet sind und eine Stärke von einem hunderttausendstel Gauß (10 μGs = 1 nT; Erdmagnetfeld: 0,5 Gs = 50 μT) haben. Da das interstellare Gas nicht elektrisch neutral ist, beeinflussen die Magnetfelder den Gasfluss in den Spiralarmen. Der Ursprung der Felder ist bisher nicht genau geklärt. Bei der Bildung der Galaxie müssen durch die Sternbildung bereits Magnetfelder vorhanden sein. Diese Felder können sich jedoch nicht bis in die heutige Zeit halten. Deshalb muss es einen Mechanismus geben, der das Magnetfeld aufrechterhält. Dem Dynamomodell zufolge speist sich das galaktische Magnetfeld aus Turbulenzen, die sich während der Sternentstehung, durch Supernova-Explosionen und durch Einfall von kaltem Gas in die Galaxienscheibe bilden. Eine weitere Energiequelle für das Feld ist die differentielle Rotation der Scheibe. Weblinks Unverhüllte Blicke auf Spiralgalaxien. ESO, 27. Oktober 2010 Einzelnachweise Galaxie Wikipedia:Artikel mit Video
Q2488
176.109059
19790
https://de.wikipedia.org/wiki/Frieden
Frieden
Friede oder Frieden (von althochdeutsch fridu „Schonung“, „Freundschaft“) ist allgemein definiert als ein heilsamer Zustand der Stille oder Ruhe, als die Abwesenheit von Störung oder Beunruhigung und besonders von Krieg. Frieden ist das Ergebnis der Tugend der „Friedfertigkeit“ und damit verbundener Friedensbemühungen. Friede ist im heutigen Sprachgebrauch der allgemeine Zustand zwischen Menschen, sozialen Gruppen oder Staaten, in dem bestehende Konflikte in rechtlich festgelegten Normen ohne Gewalt ausgetragen werden. Der Begriff bezeichnet einen Zustand in der Beziehung zwischen Völkern und Staaten, der den Krieg zur Durchsetzung von Politik ausschließt. In der Sprache deutschsprachiger Juristen ist von Frieden auch im Zusammenhang mit innenpolitischen Auseinandersetzungen (Straftatbestand des Landfriedensbruchs), mit dem Arbeitsleben (Störung des Betriebsfriedens als Kategorie des Betriebsverfassungsgesetzes) und mit dem Schutz des Privateigentums (Straftatbestand des Hausfriedensbruchs) die Rede. Zur Kennzeichnung von Grundstücken, die gegen Hausfriedensbrüche geschützt werden sollen, werden diese oft eingefriedet. In der Sprache der Psychologie und der Theologie gibt es den Begriff Seelenfrieden (vgl. den englischen Begriff „peace of mind“ oder „inner peace“); diesen sollen Lebende anstreben und Verstorbene auf dem Friedhof bzw. im Jenseits finden. Friedensbegriffe Standardsprache In der deutschen Standardsprache hat das Wort Friede drei Hauptbedeutungen: Es bezeichnet einmal einen „Zustand des inner- oder zwischenstaatlichen Zusammenlebens in Ruhe und Sicherheit“, zum anderen einen „Zustand der Eintracht und Ruhe“, außerdem, im religiösen Sinn, „die Geborgenheit in Gott“. Negativer Begriff Häufig wird mit dem Begriff Frieden die Abwesenheit von Gewalt oder Krieg gemeint. In diesem Sinne wird Frieden zwischen und innerhalb von Nationalstaaten, Religionen und Bevölkerungsgruppen als Ziel vieler Personen und Organisationen, besonders der Vereinten Nationen verstanden. Freiwilliger oder erzwungener Frieden Frieden kann freiwillig sein, wenn potenzielle Streitparteien sich entschließen, auf Störung des Friedens zu verzichten. Er kann aber auch erzwungen sein, indem durch Sanktionen, die im Völkerrecht vorgesehen sind, oder innerstaatliches Recht diejenigen niedergehalten werden, die andernfalls eine solche Störung verursachen würden. Positiver/negativer Frieden In der wissenschaftlichen Diskussion unterscheidet man zwischen dem oben genannten engen Friedensbegriff („negativer Frieden“), der die Abwesenheit von Konflikten beinhaltet, und einem weiter gefassten Friedensbegriff („positiver Frieden“). Letzterer umfasst neben dem Fehlen kriegerischer Gewalt, bei Johan Galtung direkte Gewalt genannt, auch das Fehlen kultureller und struktureller Gewalt. Nach dieser Definition bedeutet Frieden also zusätzlich das Fehlen einer „auf Gewalt basierenden Kultur“ sowie das Fehlen repressiver oder ausbeuterischer Strukturen. Ein struktureller Frieden wäre die konkrete Utopie eines sozialen Zusammenlebens in Harmonie und ohne Statuskämpfe und „Reibungsverluste“. Frieden wird hier positiv definiert als „die Fähigkeit […], Konflikte mit Empathie (= der Bereitschaft und Fähigkeit, sich in die Einstellung und Mentalität anderer Menschen einzufühlen), mit Gewaltlosigkeit und mit Kreativität oder spielerisch zu klären und zu lösen.“ Dies erfordert neben kommunikativer Friedensarbeit das Erkennen der Bedeutung von „Rechtskommunikation“ und eine intensivere Beschäftigung mit den Ursachen streitlegenden Verhaltens, das mit „Machtkommunikation“ Streiteskalationen provoziert und begünstigt. Ein Beispiel für ein „Friedensdorf“ ist Neve Schalom / Wahat as-Salam. Der Friedensgedanke in der Geschichte Prähistorisches China Die Anfänge der bis heute überlieferten chinesischen Geistesgeschichte reichen bis ins 3. Jahrtausend v. Chr. zurück und sind dem taoistischen Klassiker „I Ging – Das Buch der Wandlungen“ zu entnehmen. Darin wird eine strukturell dualistische Naturphilosophie zugrunde gelegt, in welcher alle Erscheinungen aus den sich immer wieder wandelnden Beziehungen zwischen den beiden Urprinzipien „Yin“ (auch das Empfangende, Weibliche, die Erde), und „Yang“ (auch das Schöpferische, Männliche, der Himmel) zu verstehen sind. Der Begriff „Frieden“ wird in diesem System symbolisch dargestellt durch die Anordnung: Yang unten, Yin oben. Das Empfangende, dessen Bewegung sich nach unten senkt, ist oben; das Schöpferische, dessen Bewegung nach oben steigt, ist unten. Ihre Einflüsse begegnen daher einander und sind in Harmonie, sodass alle Wesen blühen und gedeihen. Das Zeichen deutet in der Natur auf eine Zeit, da sozusagen der Himmel auf Erden ist. Der Himmel hat sich unter die Erde gestellt. So vereinigen sich ihre Kräfte in inniger Harmonie. Dadurch entstehen Friede und Segen für alle Wesen. Dieser Kraftstrom muss vom Herrscher der Menschen geregelt werden. Das geschieht durch Einteilung. So wird die unterschiedslose Zeit entsprechend der Folge ihrer Erscheinungen vom Menschen in Jahreszeiten eingeteilt und der allumgebende Raum durch menschliche Festsetzungen in Himmelsrichtungen unterschieden. Auf diese Weise wird die Natur mit ihrer überwältigenden Fülle der Erscheinungen beschränkt und gebändigt. Auf der anderen Seite muss die Natur in ihren Hervorbringungen gefördert werden. Das geschieht, wenn man die Erzeugnisse der richtigen Zeit und dem richtigen Ort anpasst. Dadurch wird der natürliche Ertrag gesteigert. Diese bändigende und fördernde Tätigkeit der Natur gegenüber ist die Arbeit an der Natur, die dem Menschen zugutekommt. In der Menschenwelt ist es eine Zeit gesellschaftlicher Eintracht. Die Hohen neigen sich zu den Niedrigen herab, und die Niedrigen und Geringen sind den Hohen freundlich gesinnt, sodass alle Fehde ein Ende hat. Wenn die Guten in der Gesellschaft in zentraler Stellung sind und die Herrschaft in Händen haben, so kommen auch die Schlechten unter ihren Einfluss und bessern sich. Wenn im Menschen der vom Himmel kommende Geist herrscht, kommt auch die Sinnlichkeit unter seinen Einfluss und findet den ihr gebührenden Platz. Himmel und Erde stehen im Verkehr und vereinigen ihre Wirkungen. Das gibt eine allgemeine – tendenziell allerdings vorübergehende – Zeit des Blühens und Gedeihens. Europäische Antike Ursprünglich scheint der Friede nirgends als Normalzustand angesehen worden zu sein. Er musste „gestiftet“ werden (vergleiche den germanischen Rechtsbegriff der „Einfriedung“). In der griechischen Antike bezeichnete der Begriff eirene (ειρήνη) bis ins 5. Jahrhundert v. Chr. einen statischen Zustand von Ordnung, Wohlstand und Ruhe. Die Göttin Eirene als personifizierter Friede wurde mit dem Füllhorn, dem Symbol des Reichtums dargestellt. Der Krieg galt als Normalzustand in den Beziehungen zwischen den griechischen Poleis. Entsprechend wurden Friedenszeiten meist mit Begriffen wie spondai (σπονδαι), synthekai (συνθῆκαι) oder dialysis polemon (διάλυσις πολέμων) umschrieben, die in etwa die Bedeutung von „Waffenstillstand“ hatten. Erst gegen Ende des Peloponnesischen Krieges wurde eirene zunehmend im heutigen Sinne des Worts „Friede“ gebraucht. Auch Friedensverträge wurden jetzt als eirene bezeichnet. Beides ist ein Hinweis darauf, dass sich nach Jahrzehnten des Krieges die Einsicht durchsetzte, dass der Friede der anstrebenswerte Normalzustand sei. In der ersten Hälfte des 4. Jahrhunderts v. Chr. kam die Idee des Allgemeinen Friedens, der koiné eiréne (κοινή ειρήνη), auf, die eine dauerhafte Friedensordnung auf der Basis von Autonomie und Gleichberechtigung der griechischen Staaten vertraglich begründen sollte. Es erwies sich aber, dass eine solche Ordnung letztlich nur durch eine starke Hegemonialmacht garantiert werden konnte. Die Römer benutzten als Friedensbegriff die lateinische Bezeichnung pax (aus pangere einen Vertrag schließen). Man unterschied dabei den häuslichen, familiären Frieden, den zwischenstaatlichen Frieden, sowie den religiösen Frieden mit den Göttern. Nur der Friede auf allen drei Ebenen konnte ein ausgewogenes Leben garantieren. Zum Leitbild eines ausgreifenden Friedens wurde die Pax Romana bzw. Pax Augusta der römischen Kaiserzeit. Judentum Im Judentum hat der hebräische Begriff Schalom in der Bibel (dem Tanach) die Bedeutungen „Unversehrtheit“, „wohlbehalten sein“, „sicher sein“, „Glück“, „freundlich miteinander“, „im Frieden“. Schalom ist die Frucht der Gerechtigkeit . Schalom wurde zu einem zentralen Wort im Judentum und ist der gängigste Gruß unter Juden und im heutigen Israel. Das Wort ist mit dem arabischen „Salam“ auf das engste verwandt. Christentum Liegt im Alten Testament (AT) des hebr. „schalom“ v. a. das Moment des Wohlbefindens, setzte sich das griech. „eiränä“ als meistgebrauchte Übersetzung von „Friede“ durch mit dem hauptsächlichen Moment der Ruhe. Mit Jesus Christus ist der im AT verheißene Friedensfürst (Jesaja 9,5) erschienen, welcher die Feindschaft zwischen Gott und Mensch beendet, indem Jesus Christus die Strafe für die Sünde, den Tod, stellvertretend auf sich genommen hat. Gottes Gerechtigkeit schafft wirklichen Frieden . Dieser Friede kann für den Menschen Wirklichkeit werden, welcher sich als Sünder weiß und Jesus Christus als seinen Retter und somit persönlichen Friedensbringer annimmt. Erst dieser Friede mit Gott ermöglicht auch den Frieden unter Menschen. Frieden kommt also nicht ohne Zutun der Menschen über die ganze Menschheit (etwa zum Weihnachtsfest), sondern er muss von Menschen gestiftet werden. Wenn Jesus wiederkommt, wird er das Friedensreich aufrichten. Im Neuen Testament nutzt Jesus Christus den Gruß Schalom, um seine Jünger zu begrüßen , und gibt ihnen diesen Gruß auf die Reise mit . Die Tugend der „Friedfertigkeit“ im Sinne der Fähigkeit und Bereitschaft, Frieden zu stiften, ist schon in den Seligpreisungen der Bergpredigt zu finden. Ein Friedensgruß oder -kuss ist Bestandteil aller klassischen christlichen Liturgien. Frieden hat für Christen die Bedeutung des „Schaloms“ aus der Bibel, das Wohlergehen an Leib, Seele und Geist. In der Bibel ist der Friede auch eine Frucht des Heiligen Geistes, der von Gott auf die Menschen herabkommt (Pfingsten). Augustinus entwarf das heilsgeschichtliche Modell zweier parallel existierender Reiche, eines göttlichen „civitas Dei“ sowie eines irdischen Staates, der „civitas terrena“, welch Letzterer am Ende der Zeit zum ewigen Frieden gelangen sollte. Für die Gegenwart übernahm er jedoch den antiken Gedanken des gerechten Krieges. Im Mittelalter konkurrierte der Gedanke der Fehde als Mittel der Rechtsdurchsetzung mit verschiedenen Friedensidealen: dem Gottesfrieden, Landfrieden und Königsfrieden. Marsilius von Padua entwickelte im defensor pacis die Notwendigkeit einer eigenständigen politischen Friedensaufgabe. Mit dem Ewigen Landfrieden von 1495 wurde unter Maximilian I. die Abschaffung des mittelalterlichen Fehderechts verkündet. Als einer der entschiedensten Verfechter gegen Krieg und für Frieden gilt der Humanist Erasmus von Rotterdam, der 1517 dem Frieden mit seiner Schrift Die Klage des Friedens eine „Stimme“ gab und sich vor allem in der Adagia 3001 (Süß erscheint der Krieg den Unerfahrenen) vehement gegen den Kriegs-Wahnsinn äußerte. Islam Wie in der semitischen Schwestersprache Hebräisch, lässt sich die Bedeutung des Wortes Frieden aus drei Radikalen herleiten. Die Radikalen Sin Lam Mim (S, L, M) bilden den Wortstamm. salâm: Sicherheit, Unversehrtheit, Ganzheit, Frieden (vgl. hebr. Schalom) Salima: sicher sein, heil sein, vollständig sein, frei sein; bewahren, von Schaden fernhalten, unversehrt übergeben, unterwerfen, zustimmen, grüßen; Frieden halten, (mit jem.), Frieden schließen; verlassen, aufgeben, sich hingeben; sich miteinander versöhnen, miteinander Frieden schließen Der arabische Begriff Salām ist auch in die Umgangssprache als Gruß eingegangen: as-salāmu ʿalaikum (dt. „Friede sei mit Euch“). Bahaitum Ein zentrales Prinzip und Ziel des Bahaitums ist die Errichtung des Weltfriedens. Bahāʾullāh, der Stifter des Bahaitums, formuliert als eine wesentliche Voraussetzung für einen dauerhaften, positiven Frieden, dass die Menschen das Prinzip der „Einheit der Menschheit“ in all ihrer Vielfalt umsetzen. Wesentliche Hürden für den Frieden seien ethnische, nationale, religiöse und andere Formen der Ausgrenzung, fehlende Gleichberechtigung von Mann und Frau und der krasse Unterschied zwischen Arm und Reich. Bahāʾullāh erhebt den Anspruch, als der Verheißene der Religionen das prophezeite Friedensreich zu errichten. In der Mitte des 19. Jahrhunderts fordert er die Herrscher seiner Zeit auf, Gerechtigkeit zu üben, abzurüsten, einen Staatenbund zu etablieren und dem Krieg ein Ende zu setzen. Sein Sohn ʿAbdul-Bahāʾ sprach als einer der Hauptredner während der 18. Lake Mohonk Friedenskonferenz. Am Ende des Ersten Weltkriegs schrieb er einen ausführlichen Brief an die Zentralorganisation für einen dauerhaften Frieden im Haag. In diesem Sinne wendete sich das Universale Haus der Gerechtigkeit, die demokratisch gewählte, führende Institution der Bahai-Gemeinde, anlässlich des von den Vereinten Nationen (UNO) ausgerufenen Internationalen Jahres des Friedens (1986) mit der Botschaft „Die Verheißung des Weltfriedens“ im Jahr 1985 an die Völker der Welt. Nach dieser Botschaft seien wir Menschen vor die Wahl gestellt, ob der Friede auf der Welt durch maßlose Schrecken erzwungen, oder durch einen Willensakt mit konsultativen Prozessen errichtet werde. Neuzeit Der Gedanke des Friedens in der Neuzeit wurde maßgeblich durch den Westfälischen Frieden von 1648 geprägt, der den Dreißigjährigen Krieg beendete. Dabei prägte Hugo Grotius († 1645) als maßgebliche Voraussetzung den Gedanken eines Völkerrechts innerhalb Europas, das die Anwendung von Gewalt zwischen den verschiedenen Konfessionen ausschließen sollte. Die rechtlichen und moralischen Prinzipien sollten prinzipielle und allgemein respektierte Gültigkeit erlangen, ohne Rücksicht auf die jeweilige Glaubensüberzeugung („Vom Recht des Krieges und des Friedens“ 1625). Thomas Hobbes forderte 1651 mit dem „Leviathan“ innerstaatlich für alle Bürger gleiches Recht. Der Staat brauche eine entsprechende Autorität, um dieses Recht gegen Privilegien Mächtiger (zum Beispiel des Adels) und vor der Gewalt von Fanatikern zu schützen. Die Grundlage dafür sah er in dem menschlichen Streben nach Sicherheit, Selbsterhaltung und Unabhängigkeit von fremder Willkür. Damit bereitete Hobbes dem neuzeitlichen Zentralstaat ideologisch den Boden; die darin auch angelegten Gefahren staatlichen Machtmissbrauchs zeigten sich dann am deutlichsten in den totalitären Exzessen der faschistischen und kommunistischen Regime. Im 18. Jahrhundert formulierte der Philosoph Immanuel Kant mit dem kategorischen Imperativ die Grundlage zu seiner Schrift „Zum ewigen Frieden“ (1795), aus der sich einmal der Völkerbund (1919) und schließlich die Vereinten Nationen (1947) entwickeln sollten. Nach marxistischer Auffassung kann nur die Arbeiterklasse die Ursachen des Krieges beseitigen und eine Gesellschaftsordnung herbeiführen, „deren internationales Prinzip der Friede sein wird, weil bei jeder Nation dasselbe Prinzip herrscht – die Arbeit“ (Marx/Engels-Gesamtausgabe, Bd. 17, S. 7). Der Frieden sei somit eine notwendige Folge des gesellschaftlichen Eigentums an den Produktionsmitteln und der damit einhergehenden gesellschaftlichen Verhältnisse, während der Krieg ebenso gesetzmäßig der Klassengesellschaft anhafte und von den herrschenden Klassen benutzt werde, um ihre Macht zu festigen und auszubauen. In der Klassengesellschaft sei daher der Frieden für den Marxisten lediglich eine Pause zwischen den Kriegen, die – vor allem im Imperialismus – lediglich dazu diene, auf dem Weg zur Weltherrschaft den nächsten Krieg nicht nur militärisch, sondern auch moralisch und propagandistisch, politisch und wirtschaftlich vorzubereiten. Im Briand-Kellogg-Pakt 1928 kam es zu einer ersten völkerrechtlich verbindlichen Ächtung des (Angriffs-)Krieges als Mittel internationaler Politik. Hatte der Erste Weltkrieg mit vielfältiger intellektueller Unterstützung noch als Reinigungs- und Veredelungsprojekt der Individuen und Nationen propagandistisch unterfüttert werden können, so führte der Zweite Weltkrieg – neben dem NS-Holocaust – mit der Entwicklung und Erprobung der Atombombe (Hiroshima, Nagasaki) bereits die mögliche Selbstvernichtung der Menschheit in einem Atomkrieg drastisch vor Augen. Damit hat sich der Krieg als „Vater aller Dinge“ (Heraklit) in der Geschichte des 20. Jahrhunderts wohl endgültig als Verderber menschlicher Gesittung und Lebensqualität erwiesen, was auch die fortdauernden Auseinandersetzungen um den Einsatz von Atomwaffen bezeugen. Die Friedensbewegung unserer Zeit beruht nicht allein auf religiösen Quellen, sondern versammelt auch ökologisch und philosophisch motivierte Atheisten unter dem Banner des Pazifismus und hinter dem Projekt: „Schwerter zu Pflugscharen!“ Das Weltgebetstreffen für den Frieden ist ein bisher zweimal, am 27. Oktober 1986 und 24. Januar 2002, auf Einladung des damaligen Papstes Johannes Paul II. veranstaltetes interreligiöses Treffen von hohen Geistlichen verschiedener Religionen in der italienischen Stadt Assisi. Bertrand Russell (1872–1970), Philosoph, Mathematiker, agnostischer Autor und Nobelpreisträger, griff 1962 durch Telegramme an John F. Kennedy, Nikita Chruschtschow, den UN-Generalsekretär U Thant und den britischen Premier Harold Macmillan in die Kuba-Krise ein, in der die Welt am Rand eines Atomkrieges stand. Chruschtschow schrieb Russell einen langen Antwortbrief, der durch die Nachrichtenagentur TASS veröffentlicht wurde und eigentlich an Kennedy und die westliche Welt gerichtet war. Und er lenkte ein, wodurch ein Atomkrieg abgewendet wurde. Zugleich entstand in der Zeit des Kalten Kriegs die Idee eines „atomaren Friedens“ als Ergebnis eines Gleichgewichts des Schreckens: Dieser Frieden beruht auf einem extremen Widerspruch. Die absolute Waffe erhält ihn aufrecht kraft der Antizipation ihres Schreckens. Zugleich aber bedeutet die dieser Waffe implizite Allesvernichtung die absolute Negation von Frieden. Der atomare Frieden besteht in der Einheit dieser Gegensätze, und seine notwendige Bedingung ist die Aufrechterhaltung dieser äußerst fragilen Einheit. Anders ausgedrückt, versagt die atomare Selbstabschreckung, die diesen Frieden trägt, dann werden die Bedingungen jeglichen Friedens zerstört. Die herbeigeführte Allesvernichtung schließt eine Rückkehr zum Frieden absolut aus. Das ist die Neuheit dieser spezifischen Form des Friedens. Der bisherige Zyklus Frieden – Krieg – Frieden wird aufgehoben. Trotz oder gerade wegen des Kalten Krieges wurden von den Staaten der Konferenz über Sicherheit und Zusammenarbeit in Europa 1975 mit den Helsinki-Prinzipien eine Absichtserklärung zur Unverletzlichkeit der Grenzen festgelegt, die wiederum in der „Charta von Paris für ein neues Europa“ vom November 1990 zum Kern einer neuen europäischen Friedensordnung wurden im „ungeteilten und freien Europa“ – als gemeinsame Grundlage für diese europäische Sicherheit wurde die Demokratie anerkannt. Ebenfalls wurde neu das Recht jedes Staates auf freie Bündniswahl erwähnt. Eine Möglichkeit, die Friedfertigkeit von Ländern und Regionen zu bestimmen bietet seit dem Jahr 2008 eine besondere Form der Datenerhebung. Der sogenannte Global Peace Index kombiniert diverse Indizes, beispielsweise die Anzahl geführter Kriege im In- und Ausland, die Anzahl von Morden aber auch die militärischen Fähigkeiten des jeweiligen Staates, und versucht so die „Friedlichkeit“ mit Blick auf einzelne Länder zu quantifizieren. Anhand der nebenstehenden Grafik ist zu sehen, wie sich die erreichten Punktzahlen der betrachteten Staaten im Zeitraum von 2008 bis 2014 verändert haben. Ereignisse wie beispielsweise der Bürgerkrieg der letzten Jahre in Syrien, spiegeln sich im Datenmaterial wider. Weiterhin ist Afghanistan mit zurückgehendem Engagement der NATO-Einsatzkräfte sehr rasch in die letzten zehn Ränge abgefallen. Der Global Peace Index ist somit eine Möglichkeit, die Entwicklung des Friedens global zu betrachten. Der Friedensgedanke in der Musik Die Friedensthematik inspirierte zahlreiche Dichter und Komponisten zu Musikwerken unterschiedlicher Gattungen. Musik affiziert unmittelbar die Sinnesorgane. Dabei wird sie spontan und universal verstanden. Nach William Shakespeare sind ihre formalen Aussagen immer wahr, ihr Gefühlsausdruck immer echt. Nachfolgend einige Beispiele: Klassische Musik Psalm 122 mit Bezug auf David (um 1000 v. Chr.). Gregorianischer Gesang Da pacem, Domine, sustinentibus, Antiphon (7.–8. Jahrhundert n. Chr.). Heinrich Schütz: Da pacem Domine, Konzert für 2 Chöre (SSATB/SATB) und B. c., SWV 465 (1627) sowie Verleih uns Frieden gnädiglich, aus: Geistliche Chormusik, SWV 372 (1648). Heinrich Albert: Omnigena a Domino Paxque Salusque venit, Aria zu 5 Stimmen (SSATB) und B. c. (1640). Johann Martin Rubert: Friedens-Freude, Konzert für 2 Tenöre, 2 Violinen und B. c. (1645). Johann Erasmus Kindermann: Musicalische Friedens Seufftzer. 8 Konzerte für 2–4 Vokalstimmen und B. c. (1642). Melchior Frank: Da pacem, Domine, Kanon für 4 Stimmen (1629). Dieterich Buxtehude: Du Friedenfürst, Herr Jesu Christ, Kantate für Chor und Instrumente, BuxWV 20. Johann Sebastian Bach: Du Friedefürst, Herr Jesu Christ, Kantate für Solo (SATB), Chor (SATB) und Instrumente, BWV 116 (1724). Andreas Romberg: Holder Friede, Chorsatz SATB. Jan Nooter: Gib Frieden, Herr, gib Frieden, Kirchenlied (1963). Heinrich Poos: Da nobis pacem, Chorsatz (1977). Arvo Pärt: Da pacem Domine, für vier Singstimmen a cappella (2004). Karl Jenkins: The Peacemakers, für Gesang Solo, Chor und Orchester (2011) Enjott Schneider: Da pacem Domine / Verleih uns Frieden, Chorsatz SATB. Georg Christoph Biller: Verleih uns Frieden, Chorsatz für Männerchor TTBB (2015). Ludger Stühlmeyer: Gib Frieden, Gott, zu unserer Zeit, Motette für Chor SATB (2020). Schlager Ralph Siegel / Bernd Meinunger / Nicole: Ein bißchen Frieden, deutscher Beitrag zum Eurovision Song Contest 1982 Popmusik Viele Musiker der Popkultur treten darüber hinaus mit Antikriegs- oder Protestliedern für den Frieden ein. Oft englischsprachig erreichten sie teils hohe Platzierungen in den Musikcharts. John Lennon: Give Peace a Chance (1969). Norman Whitfield / Barrett Strong: War, Edwin Starr: Album War & Peace (1970). Dimensionen des Friedens Abwesenheit von Krieg zwischen Staaten Frieden als Zustand des Nicht-Verwickelt-Seins in kriegerische Auseinandersetzungen ist in der Geschichte der Staaten und Völker eher die Ausnahme als die Regel. Die Idee des Weltfriedens gilt als Utopie. Dennoch gibt es Staaten, die seit dem 19. Jahrhundert nicht mehr an Kriegen teilgenommen haben. Beispiele: Schweden (1815 – bis heute): Schweden ist bis zum heutigen Tag das Land mit dem am längsten andauernden Frieden. Seit seiner Invasion Norwegens zur Durchsetzung der Personalunion entsprechend dem Kieler Vertrag konnte es den Frieden aufrechterhalten. Schweiz (1848 – bis heute): Durch Bestehen auf Neutralität hat sich die Schweiz einen lang andauernden Frieden erhalten können. Zur Erinnerung an den Beginn des Zweiten Weltkrieges am 1. September 1939 wird in der Bundesrepublik Deutschland seit 1966 auf Initiative des DGB der Weltfriedenstag (auch Antikriegstag genannt) begangen; in der DDR gab es diesen Tag bereits in den 1950er Jahren. Für die katholische Kirche erklärte 1968 Papst Paul der VI den 1. Januar zum „Weltfriedenstag“, die Vereinten Nationen begehen seit 1981 am 21. September den Internationalen Friedenstag (International Day of Peace). Als Cyberpeace wird die Abwesenheit jeder Form von Cyberkrieg bezeichnet. Der Begriff Cyberpeace berücksichtigt die relativ neue Möglichkeit, nicht nur zu Wasser, zu Lande, in der Luft sowie im Weltraum, sondern auch im Cyberspace Kriege zu führen. Abwesenheit von Aufruhr, Fehden und Selbstjustiz in einem Land Bereits in der heidnischen Zeit gab es unter germanischen Völkern und Stämmen die Sitte des Thing(s)friedens. Der Thingfrieden gebot allen Anwesenden, „aus Respekt vor den Göttern, den Geistern und den Ahnen“, während des Things keine Streitigkeiten offen auszutragen, sondern entweder eine Entscheidung vom Thing zu erbitten oder aber den Streit bis nach dem Thing ruhen zu lassen. Aus dem Thingfrieden entwickelte sich der Marktfrieden von Märkten wie dem Send in Münster, einer Kirmes, die früher aus Anlass des Tagens des Sendgerichts veranstaltet wurde. Im christlichen Mittelalter gab es die Institutionen des Landfriedens, des Gottesfriedens und des Königsfriedens. Im heutigen Straftatbestand des Landfriedensbruchs (in Deutschland strafbar nach Strafgesetzbuch) ist die Vorstellung eines Landfriedens, den es zu schützen gelte, lebendig geblieben. Gewaltmonopol des Staates Der Frieden im Inneren eines Staates soll nach herrschender Lehre durch das Gewaltmonopol des Staates geschützt werden. Dieser ist demnach berechtigt, jeden durch Strafandrohung und Bestrafung an der Androhung und Anwendung von Gewalt zu hindern. Nur in Fällen der Notwehr und der Nothilfe darf Gewalt von jedem rechtmäßig ausgeübt werden. Als legitim erscheint das Gewaltmonopol des Staates nur dann, wenn der Staat ein Rechtsstaat ist, in dem es eine Gewaltenteilung gibt, in dem der Verfassung gemäße Gesetze vom Volk selbst oder von einer gewählten Volksvertretung beschlossen werden und in dem die Exekutive und die Judikative an Recht und Gesetz gebunden sind. Zudem haben die Staatsorgane ein Interesse daran, Akten der Selbstjustiz dadurch vorzubeugen, dass der Rechtsfrieden im Land gewahrt bleibt. In der Praxis ist es allerdings nicht möglich, Gewaltakte, die durch Privatpersonen ausgeübt werden, sicher zu verhindern, selbst in Gerichtssälen und Flugzeugen kann es sogar den Einsatz von Schusswaffen durch Privatpersonen geben. Recht zum Waffenbesitz, zum Waffentragen und zum Waffeneinsatz Zur Aufrechterhaltung des Friedens in einem Land haben die meisten Staaten Vorschriften erlassen, die den Besitz, das Mitsichführen und den Einsatz von Waffen gesetzlich regeln. In Deutschland benötigen Personen, die nicht der staatlichen Exekutive angehören, in der Regel eine Waffenbesitzkarte, wenn sie legal eine Schusswaffe erwerben oder besitzen wollen. Zum Führen einer Schusswaffe (dem eigentlichen "Waffentragen") berechtigt der Waffenschein. Auch für andere Waffen gibt es umfangreiche rechtliche Regelungen (z. B. das Verbot des Mitbringens von Waffen aller Art in Schulen), die verhindern sollen, dass durch den Einsatz von Waffen die Wirkung des Einsatzes körperlicher Gewalt verstärkt wird. Instrument der Friedensbürgschaft In der Schweiz gibt es gemäß Art. 66 des Schweizerischen Strafgesetzbuches die Möglichkeit, einer Person, die mit der Begehung eines Vergehens oder eines Verbrechens gedroht hat, auf Antrag des Bedrohten das Versprechen abzunehmen, dass sie die Tat nicht ausführen wird, und sie dafür zur Leistung angemessener Sicherheit anzuhalten. Dieses Versprechen wird in der Schweiz Friedensbürgschaft genannt. Gemeindefrieden Auch in Städten und in politischen Gemeinden kann der Frieden (Gemeindefrieden) gestört sein. Insbesondere gilt dies für Fälle, in denen ein direkt gewählter Bürgermeister, dessen Amtszeit bis zu acht Jahren dauern kann, sich auf eine Weise verhält, die viele seiner Wähler nicht akzeptieren, indem er z. B. in der Gemeinde nicht seinen ersten Wohnsitz hat, in einer anderen Gemeinde für das Amt des Bürgermeisters kandidiert, sich zu stark überörtlich engagiert, häufig bei Vereinsfesten, Jubiläen und so weiter nicht anwesend ist, sich zu stark mit den Positionen einer Partei identifiziert und nur deren Positionen umzusetzen bestrebt ist. Viele Kommunalverfassungen sehen deshalb die Möglichkeit einer vorzeitigen Abwahl des Bürgermeisters vor. Die Redakteure einiger Amtsblätter sind per Redaktionsstatut gehalten, Beiträge, die einen „den Gemeindefrieden störenden Charakter haben“, nicht zu veröffentlichen. Dazu gehören persönliche Angriffe, Verunglimpfungen und Beiträge, die gegen gültige Gesetze verstoßen. Betreiber kommunaler Einrichtungen (etwa von Stadthallen) dürfen zur Wahrung des Gemeindefriedens Buchungsanfragen ablehnen. Religionsfrieden, Kirchenfrieden und Frieden zwischen den Religionen Religionsfrieden Mit dem Begriff Religionsfrieden wird in aller Regel nicht der Zustand des Friedens zwischen den Weltreligionen bezeichnet. Religionsfrieden ist vielmehr ein Fachausdruck der Geschichtswissenschaft zur Bezeichnung historischer Friedensschlüsse zwischen dem katholischen und dem protestantischen Lager im ersten Jahrhundert nach der Reformation. Konkret ist zumeist vom Nürnberger Religionsfrieden vom 23. Juli 1532 und vom Augsburger Reichs- und Religionsfrieden vom 25. September 1555 die Rede. An die Tradition des Augsburger Reichs- und Religionsfriedens knüpft das Augsburger Hohe Friedensfest an, das seit 1650 am 8. August ausschließlich in der Stadt Augsburg (im Rahmen eines Gesetzlichen Feiertages) begangen wird. Kirchenfrieden Der Begriff Kirchenfrieden hat mehrere Bedeutungen. Er bezeichnet die Einigkeit der Glieder oder Lehrer einer Kirche in gottesdienstlichen Angelegenheiten, die öffentliche Sicherheit gottesdienstlicher Orte, Personen und Sachen (dieser Friede war ein Friede des Ortes, der deshalb nicht bloß durch Verletzung der Kirche und der zu ihr gehörenden Gegenstände selbst, sondern auch durch einen Frevel an Personen verletzt wurde, welche sich an der heiligen, Schutz verleihenden Stätte befanden; als räumliche Grenze der befriedeten Stätte galt die Kirche, der Kirchhof und dazu noch ein gefriedeter Umkreis von einer gewissen Anzahl, z. B. 30 oder 40 Schritt; je nach der Größe und Bedeutung der Kirche wurde ihr ein mehr oder wenig hoher Friede beigelegt, der in der Höhe der Friedensstrafe Ausdruck fand) und eine päpstliche Regel, die vorschrieb, wann und wie von christlichen Rittern gekämpft werden durfte. Frieden zwischen den Religionen Als Reaktion auf die Anschläge vom 11. September 2001 stellte der kritische katholische Theologe Hans Küng die folgenden vier Thesen auf: „Kein Frieden unter den Nationen ohne Frieden unter den Religionen. Kein Frieden unter den Religionen ohne Dialog zwischen den Religionen. Kein Dialog zwischen den Religionen ohne globale ethische Maßstäbe. Kein Überleben unseres Globus ohne ein globales Ethos, ein Weltethos.“ Sozialer Frieden Als sozialer Frieden werden heute überwiegend Verhältnisse bezeichnet, die verhindern, dass es in einem Staat zu einem „Aufstand der Unterschicht“ kommt, weil deren Angehörige mehrheitlich das Ausmaß der Verteilungsungerechtigkeit in dem betreffenden Staat für unerträglich halten. Die Wahrung des „sozialen Friedens“ ist eine Hauptaufgabe des Sozialstaats. Stefan Dietrich bezweifelt allerdings, dass eine dauerhafte „Alimentierung der Ausgemusterten“ durch den Sozialstaat dem sozialen Frieden diene. Albrecht von Lucke versteht „sozialen Frieden“ als „soziale Integration, Zufriedenheit in der Bevölkerung mit der Demokratie […], durch Aufstiegsmöglichkeiten, mit der Möglichkeit, sich in der Gesellschaft zu betätigen, sowohl als sozialer wie als politischer Akteur.“ Betriebsfrieden, Arbeitsfrieden Die Abwesenheit von Arbeitskämpfen zwischen Sozialpartnern, insbesondere von Streiks und Aussperrungen, wird als Betriebsfrieden bzw. (vor allem in der Schweiz) als Arbeitsfrieden bezeichnet. Das Betriebsverfassungsgesetz stellt in Deutschland Regeln auf, nach denen sich die Rechtmäßigkeit von Arbeitskämpfen bemisst. Zu den Verhaltensweisen, die als „Störungen des Betriebsfriedens“ gelten, sind auch die parteipolitische Betätigung von Beschäftigten oder Unternehmern im Betrieb, Mobbing und andere Formen sozial unerwünschten Verhaltens zu zählen. Eine „Störung des Betriebsfriedens“ durch einen Arbeitnehmer führt als „verhaltensbedingter Kündigungsgrund“ regelmäßig zur Entlassung des Störers. Schulfrieden Der Begriff Schulfrieden hat drei verschiedene Bedeutungen: Erstens bezeichnet er die Abwesenheit von Gewalt und andauernden gravierenden Konflikten in einer bestimmten Schule. Zweitens bezieht er sich auf einen Zustand in einem bestimmten Land, der dadurch gekennzeichnet ist, dass der lang andauernde bildungspolitische Streit über die angemessene Schulstruktur und angemessenen Unterricht in den Schulen beigelegt ist. Drittens ist dann von Schulfrieden die Rede, wenn die Beziehung zwischen dem Schulträger und den von Schule und Unterricht Betroffenen nicht gestört ist. Frieden in einer bestimmten Schule Das Bundesverwaltungsgericht definiert den Schulfrieden als Zustand der Konfliktfreiheit und -bewältigung, der einen ordnungsgemäßen Unterricht ermöglicht, damit der staatliche Bildungs- und Erziehungsauftrag verwirklicht werden kann. Als Störungen des Schulfriedens werden (auch von Gerichten) bewertet: Störungen der konstruktiven Zusammenarbeit aller am Schulleben Beteiligten Gewaltanwendung und Mobbing die Berufung darauf, Vorschriften der eigenen Religion im Rahmen der Religionsfreiheit in den Räumen der Schule während der Unterrichtszeit befolgen zu dürfen (z. B. in der Form, dass Lehrerinnen darauf bestehen, im Unterricht ein Kopftuch tragen zu dürfen, oder dass Schüler eigene Räumlichkeiten zur Verrichtung ritueller Gebete fordern). Ein Einzelfall wurde vor dem Bundesverwaltungsgericht verhandelt und am 30. November 2011 entschieden. Das Bundesverwaltungsgericht: Die Verrichtung von Gebeten in der Schule findet ihre Schranke in der Wahrung des Schulfriedens. Ein Schüler ist nicht berechtigt, während des Besuchs der Schule außerhalb der Unterrichtszeit ein Gebet zu verrichten, wenn dies konkret geeignet ist, den Schulfrieden zu stören. „Das Bundesverwaltungsgericht hat … für den konkreten Fall des Klägers entschieden, dass hier aufgrund der Verhältnisse an der von ihm besuchten Schule die Verrichtung des Gebets auf dem Schulflur eine bereits ohnehin bestehende Gefahr für den Schulfrieden erhöhen konnte. Damit ist ein Zustand der Konfliktfreiheit und -bewältigung gemeint, der im Interesse der Verwirklichung des staatlichen Bildungs- und Erziehungsauftrags den ordnungsgemäßen Unterrichtsablauf ermöglicht. Der Schulfrieden kann beeinträchtigt werden, wenn ein religiös motiviertes Verhalten eines Schülers religiöse Konflikte in der Schule hervorruft oder verschärft.“ In Bayern begründete 2008 ein Schulamt die Versetzung einer Lehrkraft damit, dass eine „nachweisliche und nachhaltige Störung des Schulfriedens“ vorliege, nachdem die Lehrerin an einer Grundschule einen „zu hohen Anteil“ der Schüler ihrer Klasse für den Besuch des Gymnasiums empfohlen hatte. Konsens zur Schulentwicklung im Staat Ein Beispiel für einen Schulfrieden in der zweiten Bedeutung des Begriffs stellt der im Dezember 2008 beschlossene „Konsens zur Schulentwicklung“ in Bremen dar. Die SPD, die Grünen, die CDU und die FDP in Bremen einigten sich darauf, zehn Jahre lang keine Initiativen zu ergreifen, durch die die im Jahr 2008 beschlossenen Maßnahmen zur Schulstrukturreform wesentlich abgeändert werden sollen. In Hamburg ist allerdings der Versuch der den schwarz-grünen Senat tragenden Parteien, einen Schulfrieden durch Einbezug der SPD und der Linken zu stiften, durch ein erfolgreiches Referendum gescheitert, in dem die Mehrheit der Abstimmenden gegen die Einführung einer sechsjährigen Grundschule in Hamburg stimmte. Ob Politiker einen Schulfrieden ohne Einbezug der betroffenen Bürger stiften können, ist daher strittig. Bemühungen um einen Schulfrieden gibt es auch in Flächenländern. Konsens zur Schulentwicklung in einer Gemeinde, einem Kreis oder einem Schulverband Störungen des Schulfriedens können sich auch aus Beschlüssen der Schulträger einer oder mehrerer Schulen in einer Region ergeben. Auslöser von Konflikten ist oftmals der demografische Wandel in einem Gebiet, der mit abnehmenden Schülerzahlen verbunden ist, oder verändertes Verhalten der Eltern im Hinblick auf die Wahl weiterführender Schulen in solchen Ländern, in denen der Elternwille über den Übergang eines Kindes in eine Schule des Sekundarbereichs I ausschlaggebend ist. Dabei geht es einerseits um den Bestandsschutz für vorhandene Schulen, andererseits aber auch um Zusammenlegung von Schulen verschiedener Schulformen und die Gründung neuer Schulen. Probleme ergeben sich bei sinkenden Schülerzahlen auch dadurch, dass Schüler infolge von Schulschließungen oftmals weitere Schulwege zurücklegen müssen. Ein Beispiel für einen Konflikt, der durch den Schulträger ausgelöst wurde, ist der Streit um die Zuweisung von Schülern im Rheingau-Taunus-Kreis in Hessen. Hausfrieden, Frieden im Haus und häuslicher Frieden Die Respektierung des Menschenrechts auf Unverletzlichkeit der Wohnung (in Deutschland geschützt durch Art. 13 GG) wird auch Hausfrieden genannt. Die Verletzung des Hausfriedens erfüllt den Straftatbestand des Hausfriedensbruchs (in Deutschland strafbar nach Strafgesetzbuch). Einen Hausfriedensbruch kann man nicht nur dadurch begehen, dass man in private Wohnungen oder Wohnhäuser unbefugt eindringt, sondern auch durch das unbefugte Betreten fremder Grundstücke und das Betreten öffentlich zugänglicher Einrichtungen trotz eines Hausverbots oder dadurch, dass man eine Einrichtung nicht verlässt, obwohl man dazu aufgefordert worden ist. In einem übertragenen Wortsinn wird von einem „Hausfriedensbruch“ auch dann gesprochen, wenn Malware in einen Computer eindringt. Dieser Vorgang wird oft als „digitaler Hausfriedensbruch“ bezeichnet. Eine weitere Bedeutung besitzt der Begriff Hausfrieden als Analogiebildung zum Betriebsfrieden: Es ist zulässig, dass der Vermieter einem Mieter in einem Mehrfamilien-Wohnhaus mit der Begründung dessen Wohnung kündigt, er störe durch sein Fehlverhalten den Frieden im Haus. Mit häuslicher Frieden wird das gedeihliche Zusammenleben in einem Haushalt bezeichnet. Als solcher gilt unter Umständen auch eine Wohngemeinschaft. Straftaten, die durch Mitglieder des Haushalts begangen werden, in dem das Opfer der Straftat lebt, werden nicht durch besondere Strafrechtsvorschriften verfolgt. Seitdem in Deutschland auch die Vergewaltigung und die sexuelle Nötigung in der Ehe strafbar sind, sind im Prinzip alle Vorschriften des Strafgesetzbuches auch auf Fälle häuslicher Gewalt anwendbar. Eine Ausnahme bildet im deutschen Strafrecht Strafgesetzbuch (Haus- und Familiendiebstahl), dem zufolge um des „häuslichen Friedens“ willen der Diebstahl oder die Unterschlagung desjenigen, der mit dem Opfer in häuslicher Gemeinschaft lebt, nur auf Antrag verfolgt wird. Als „Hausfriedensbruch“ im Sinne einer Störung des häuslichen Friedens bewertete der „Spiegel“ 1982 die Hausaufgaben für Schüler, da sie eine ständige Quelle der Belästigung von Eltern (von denen erwartet werde, dass sie ihren Kindern helfen) und des häuslichen Unfriedens seien. Familienfrieden Eng mit dem häuslichen Frieden, dem Frieden im Haushalt bzw. in der Wohn- und Lebensgemeinschaft, verwandt ist der Familienfrieden, der Frieden zwischen Eheleuten bzw. Lebensgefährten und zwischen Verwandten. Der Familienfrieden kann von innen, d. h. von Mitgliedern der betreffenden Familie, aber auch von außen gestört werden. Insbesondere eine Inanspruchnahme von Unterhaltspflichtigen durch Personen, die nicht ihrem Haushalt angehören, oder durch den Staat wird oftmals von Beklagten und deren Anwälten als „Störung des Familienfriedens“, d. h. hier konkret als finanzielle Untergrabung der aktuellen Lebensgemeinschaft bewertet. Der Wunsch eines Sohnes oder einer Tochter, seine bzw. ihre Abstammung vom Ehemann der Mutter überprüfen zu lassen, gilt laut einem Urteil des Bundesverfassungsgerichts auch dann nicht mehr als unzulässige Störung des Familienfriedens, wenn die Ehe noch besteht. Allerdings stellte das Oberlandesgericht Nürnberg fest, dass es im Interesse des Familienfriedens geboten sein könne, nicht bereits einem kleinen Kind mitzuteilen, dass sein sozialer Vater nicht sein leiblicher Vater sei. Im Interesse des Familienfriedens duldet der deutsche Staat in Form eines Verzichts auf Strafverfolgung die Züchtigung von Kindern durch deren Erziehungsberechtigte, obwohl bestimmt: „Kinder haben ein Recht auf gewaltfreie Erziehung. Körperliche Bestrafungen, seelische Verletzungen und andere entwürdigende Maßnahmen sind unzulässig.“ Frieden zwischen den Geschlechtern Bereits 1250 führte Birger Jarl in Schweden ein Gesetz über den Frauenfrieden (schwedisch: kvinnofrid) ein, durch das Vergewaltigungen und Frauenraub schwer bestraft wurden. Seit dem 1. September 1999 gibt es in Schweden den Straftatbestand des schweren Frauensfriedensbruchs. Die neue rechtliche Norm des Frauenfriedensbruchs wurde entsprechend den Begriffen des Haus- und Landfriedensbruchs gebildet. Sie wurde bei ihrer Einführung als erforderlich gesehen, um z. B. die Strafverfolgung von anhaltender häuslicher Gewalt zu erleichtern. Demzufolge umschreibt der Rechtsbegriff „grobe Verletzung der Integrität einer Frau“, kurz „Frauenfriedensbruch“, im schwedischen Strafrecht wiederholte Straftaten, die von Männern an Frauen begangen werden, zu denen sie eine enge Beziehung haben. Die einzelnen Taten würden, für sich allein genommen, möglicherweise nicht verfolgt, insgesamt dagegen wiegen sie schwer genug für eine Bestrafung. Weitere Dimensionen Burgfrieden Weihnachtsfrieden (Erster Weltkrieg) Weihnachtsfrieden (Öffentlicher Dienst) Weihnachtsfrieden (Skandinavien) Öffentlicher Friede Symbole CND-Symbol Friedenstaube: Die Taube wird sehr häufig zur Darstellung des Friedens gebraucht. Meist trägt sie einen Olivenzweig in ihrem Schnabel Olivenzweig/-baum Regenbogenfahne mit Aufschrift PACE Friedensglocke als Mahnmal für den Frieden Friedenslicht Verschiedene Bewertungen von Streit und Konflikt Hans Grothe plädierte 2008 in der Zeitschrift Eltern für eine Erziehung zur Friedfertigkeit: „Kinder müssen erleben bzw. vorgelebt bekommen, dass Konflikte auch ohne Zorn und ohne Gewalt bewältigt werden können […]. Dazu gehören Geduld und Selbstbeherrschung. Und wenn es erst einmal zur Routine geworden ist, Konflikte am Familientisch gemeinsam zu lösen, denkt bald keiner mehr an Streit und Wutausbrüche.“ In diesem Beitrag werden „Frieden“ und Affekte wie Zorn als unvereinbare Gegensätze empfunden. Im Jahr 1922 wehrte sich der „revolutionäre Pazifist“ Kurt Hiller heftig gegen das Ziel, Menschen zur Friedfertigkeit zu erziehen. Er vertrat die Auffassung, ein Friedfertiger sei „ein friedlicher, sanftmütiger, durchaus nachgiebiger, toleranter Mensch […], ein niemals opponierendes, sich auflehnendes, aggressives, gar zornentbrantes, vielmehr vom Honig der Eintracht und von allen Salben bedingungsloser Menschenliebe triefendes Demutsgeschöpf“, gekennzeichnet durch „Lammesgesinnung“ und „Betschwestertugend“. Auch im Kontext der Aktivitäten der deutschen Friedensbewegung wurde in den 1980er Jahren kritisiert, dass das Wortfeld „Frieden“ im Deutschen viele bedenkliche Konnotationen aufweise, die eher zur Resignation beitrügen als dazu, den Prozess der Stiftung von Frieden zu befördern. Bereits Martin Luther habe bei der deutschen Übersetzung der Bibel in den Seligpreisungen der Bergpredigt nicht von Friedensstiftern, sondern von Friedfertigen gesprochen, einem Begriff, bei dem man laut Fritz Pasierbsky weniger an Kämpfer für den Frieden als an Menschen denke, die „in Frieden gelassen werden“ wollen, also an Konfliktscheue. Friedensstiftung setze aber (auch konfliktbehaftete) Tätigkeit und nicht Untätigkeit („Ruhe“) voraus. Es gehe nicht um Konfliktvermeidung, sondern um gewaltfreie Konfliktaustragung. An der Vorstellung, Frieden sei ein Synonym für „Ruhe“, stört Kritiker vor allem die Nähe zur Ruhe des Friedhofs. Die Vorstellung liege nahe, dass der Mensch erst im Tode den Frieden finden könne, der ihm im Leben versagt geblieben sei. Die Formel: „Ruhe in Frieden!“ schaffe eine begriffliche Nähe von Frieden und „Tod“, während es in Wirklichkeit der Krieg sei, der den Tod bringe, und der Frieden, der ein Weiterleben ermögliche. Aufgabe der Friedensbewegung sei es, so Pasierbsky, die Konnotation zu beseitigen, wonach Frieden Konfliktvermeidung impliziere und nur das Prinzip „Krieg“ für „Leben“ stehe. Die Ansicht, dass es kein Leben ohne Konflikte geben könne, wird durch Philosophen wie Georg Wilhelm Friedrich Hegel bestätigt. Ihm zufolge seien das Leben oder Veränderungen im Allgemeinen nur durch das Aushalten von Widersprüchen, durch widerstreitende Momente möglich: „[…] Etwas ist also lebendig, nur insofern es den Widerspruch in sich enthält, und zwar diese Kraft ist, den Widerspruch in sich zu fassen und auszuhalten. Wenn aber ein Existierendes nicht in seiner positiven Bestimmung zugleich über seine negative überzugreifen vermag, so ist es nicht die lebendige Einheit selbst, nicht Grund, sondern geht in dem Widerspruch zugrunde.“ Zu den negativen Konnotationen des Begriffs „Friedfertigkeit“ ist anzumerken, dass der Wortbestandteil „Fertigkeit“ in dem Begriff auf das Begriffspaar Fähigkeiten und Fertigkeiten verweist. Beide Begriffe werden in der Kategorie Kompetenz vereinigt. Die Fertigkeit, den Frieden zu sichern bzw. einen Frieden herbeizuführen, ist im Allgemeinen keineswegs negativ konnotiert. Siehe auch Anti-Kriegs-Museum Demokratischer Frieden Friedenspolitik, Friedensforschung Friedensprozess Friedenserziehung Friedensspiele Netzwerk Friedenssteuer Weltfrieden Literatur Klassiker Jeremy Bentham: Grundsätze für Völkerrecht und Frieden, (1786/1789) übers. K. v. Raumer in: K. v. Raumer 1953, S. 379–417. Émeric Crucé, Der Neue Kineas oder Abhandlung über die Gelegenheiten und Mittel, einen allge meinen Frieden des Handels auf dem ganzen Erdkreise zu begründen, Übertragung von „Thomas Willing Balch, Le Nouveau Cynée de Émeric Crucé. Réimpression du texte original de 1623 avec introduction et traduction anglaise, Philadelphia 1909“ von Walther Neft in: K. v. Raumer 1953 S. 289–320. Johanna J. Danis: Krieg und durchkreuzter Frieden, Triangulierung der Gegensätze, Edition Psychosymbolik, München 1996, ISBN 3-925350-70-5. Erasmus von Rotterdam: Die Klage des Friedens, der bei allen Völkern verworfen und niedergeschlagen wurde (Querela Pacis undique gentium ejectae profligataeque), 1517, erste Herausgabe von Georg Spalatin, erste deutsche Ausgabe 1622. Sebastian Franck: Das Krieg Büchlin des frides. Ein krieg des frides, wider alle lermen, aufrur und unsinnigkait zu kriegen, mit gründlicher anzaigung, auß wichtigen eehafften ursachen, auß gründtlichen argumenten der Hailigen Schrifft, alten Leeren, Concilien, Decreten, der Hayden schrifft und vernunfft widerlegt, 1539 und 1. Nachdruck von Cyriacus Jacob zum Bock, Frankfurt am Main 1550. Friedrich Gentz: Über den ewigen Frieden, in: Historisches Journal, S. 709–790, 1800. I Ging – Das Buch der Wandlungen. Hier verwendete Ausgabe 1974, Eugen Diederichs Verlag Düsseldorf; Köln. ISBN 3-424-00061-2. Immanuel Kant: Zum ewigen Frieden. Ein philosophischer Entwurf. Verlag Friedrich Nicolovius, Königsberg 1795 und als vermehrte Auflage ebenda, Königsberg 1796. William Penn: Ein Essay zum gegenwärtigen und zukünftigen Frieden von Europa durch Schaffung eines europäischen Reichstags, Parlaments oder Staatenhauses, 1693 in: von Raumer 1953 S. 321–342. Jean-Jacques Rousseau: Auszug aus dem Plan des Ewigen Friedens des Herrn Abbé de Saint-Pierre (1756 bis 1761) übers. v. Gertrud von Raumer in: K. v. Raumer 1953, S. 343–368. Kurt von Raumer: Ewiger Friede. Friedensrufe und Friedenpläne seit der Renaissance. Karl Alber Verlag, Freiburg 1953. Carl Friedrich von Weizsäcker: Bedingungen des Friedens. Göttingen 1964 Neuere Darstellungen Andrea Cagan: Frieden ist möglich. Prem Rawat – Sein Leben, sein Weg. Albatros, Wien 2007, ISBN 978-3-85219-031-0. Wolfgang Dietrich, Josefina Echavarría Alvarez, Norbert Koppensteiner (Hrsg.): Schlüsseltexte der Friedensforschung, Lit, Münster / Wien 2006, ISBN 3-8258-9731-1 (Lit, Münster) / ISBN 3-7000-0502-4 (Lit, Wien). Wolfgang Dietrich: Variationen über die vielen Frieden. Schriften des UNESCO Chair for Peace Studies der Universität Innsbruck. Band 1: Deutungen, VS-Verlag, Wiesbaden 2008, ISBN 978-3-531-16253-9. Band 2: Elicitive Konflikttransformation und die transrationale Wende der Friedenspolitik. VS-Verlag, Wiesbaden 2008, ISBN 978-3-531-18123-3. Johan Galtung u. a.: Neue Wege zum Frieden. Konflikte aus 45 Jahren: Diagnose, Prognose, Therapie. Bund für Soziale Verteidigung 2003, ISBN 3-00-011703-2. Hans-Werner Gensichen: Weltreligionen und Weltfrieden. Göttingen 1985 Häberle, Peter: Die „Kultur des Friedens“ – Thema der universalen Verfassungslehre. Oder: Das Prinzip Frieden, Duncker & Humblot, Berlin 2017, ISBN 978-3-428-15325-1. Alfred Hirsch, Pascal Delhom (Hrsg.): Denkwege des Friedens. Aporien und Perspektiven. Alber, Freiburg / München 2007, ISBN 978-3-495-48204-9. Karlheinz Koppe: Der vergessene Frieden. Friedensvorstellungen von der Antike bis zur Gegenwart. Opladen 2001. ISBN 3-8100-3099-6. Norbert Koppensteiner: The Art of the Transpersonal Self; Transformation as Aesthetic and Energetic Practice. ATROPOS New York/Dresden 2009. Samrat Schmiem Kumar: Bhakti – the yoga of love. Trans-rational approaches tp Peace Studies; (= Masters of Peace/1) Lit, Münster, Wien; 2010 Terry Nardin: The Ethics of War and Peace: Religious and Secular Perspectives. The Ethikon Series in Comparative Ethics, Princeton University Press 1996. Terry Nardin: The Philosophy of War and Peace. in: Routledge Encyclopedia of Philosophy. 9 (1998), S. 684–691. Nachschlagewerke Wolfgang Dietrich, Josefina Echavarría Alvarez, Gustavo Esteva, Daniela Ingruber, Norbert Koppensteiner (Hrsg.): The Palgrave International Handbook of Peace Studies. A Cultural Perspective. London, Palgrave MacMillan, 2011 Nigel Young (Hrsg.): The Oxford International Encyclopedia of Peace. Oxford University Press, 2010 Weblinks Online-Bibliographie Theologie und Frieden des IThF – Die Online-Bibliographie Theologie und Frieden des Instituts für Theologie und Frieden (IThF), Hamburg, enthält ca. 148.000 durch detaillierte Deskriptoren sacherschlossene Titel. Berücksichtigung findet dabei für friedensethische Forschung relevante Literatur aus einzelnen Disziplinen der Theologie und anderen Wissenschaften Arbeitsgemeinschaft für Friedens- und Konfliktforschung (AFK) Zentrum für Friedensforschung und Friedensbildung an der Alpen-Adria-Universität Klagenfurt Manifest gegen die Wehrpflicht und das Militärsystem (dreisprachig) Deutscher Friedensrat e. V. Einzelnachweise Politische Philosophie Ethisches Gut Militärtheorie Tugend
Q454
309.017827
26538
https://de.wikipedia.org/wiki/Mobiltelefon
Mobiltelefon
Ein Mobiltelefon, im deutschsprachigen Raum auch Handy, früher auch Funktelefon, Antennentelefon oder GSM-Telefon (nach dem Mobilfunkstandard GSM), in der Schweiz auch Natel genannt, ist ein tragbares Telefon, das über Funk mit dem Telefonnetz kommuniziert und daher ortsunabhängig eingesetzt werden kann. Im Jahre 2013 wurden weltweit erstmals mehr internetfähige Mobiltelefone mit berührungsempfindlichen Bildschirmen (Smartphones) als herkömmliche Mobiltelefone verkauft. Die drei größten Hersteller von Smartphones weltweit waren im Jahr 2015 Samsung, Apple und Huawei, danach folgten Lenovo, Xiaomi, ZTE, LG, Oppo und TCL-ALCATEL. Die herkömmlichen Mobiltelefone werden heute überwiegend als Feature-Phones für einen kleinen Markt verkauft, zum Beispiel in Entwicklungsländern und Schwellenländern oder für Menschen, die möglichst einfach bedienbare Geräte mit langer Akkulaufzeit nutzen wollen. Ein kabelloses Telefon, das sich per Funk zur Basisstation mit dem Festnetz verbindet, wird nicht als Mobiltelefon oder Handy, sondern als Schnurlostelefon bezeichnet. Geschichte Vor den Geräten, die heute als Mobiltelefon bezeichnet werden, gab es einige Vorläufer. Die Entwicklung des Mobilfunks begann mit dem Versuch der Huth-Gesellschaft im Jahre 1923 mit einem Telefondienst in Zügen der Deutschen Reichsbahn und Reichspost auf der Strecke zwischen Hamburg und Berlin. Dieser Telefondienst wurde nur den Reisenden der 1. Klasse angeboten. Schon früh äußerten Künstler und Schriftsteller ihre Phantasien über die möglichen Auswüchse der Mobiltelefonie. So beschreibt Gustav Hochstetter 1913 einen gestressten Firmenchef, der auf ärztlichen Rat durch Wandern in Schweigsamkeit wieder Kraft tanken soll. Da hört er in der Abgeschiedenheit der Berge plötzlich etwas aus seinem Rucksack – seine Frau ruft ihn an: 1926 entwarf der Zeichner Karl Arnold im Simplicissimus ein visionäres Bild vom Sinn und Unsinn des mobilen Telefonierens auf offener Straße in dem Bild „Drahtlose Telephonie“. Aus dem Jahr 1931 stammt eine weitere literarische Schilderung einer Mobiltelefon-Utopie. Sie findet sich in Erich Kästners Kinderbuch Der 35. Mai oder Konrad reitet in die Südsee: Die ersten Mobilfunkgespräche wurden über in Kraftfahrzeugen montierte Endgeräte – Autotelefone – im Jahr 1946 möglich. Die US-Firma Bell Telephone Company bot ihren Mobile Telephone Service an, über den am 17. Juni 1946 in St. Louis die ersten Gespräche geführt wurden; ab 2. Oktober desselben Jahres war ein Autotelefonservice der Illinois Bell Telephone Company in Chicago verfügbar. In der Schweiz wurden die ersten Autotelefone 1949 eingeführt. Am Anfang wurden modifizierte Polizeifunkgeräte eingesetzt. Der Zürcher Unternehmer Welti-Furrer nahm am 9. Juni 1949 eine Anlage in Betrieb, mit der seine Fahrzeuge vom öffentlichen Telefonnetz aus erreicht werden konnten. Zuerst wurden die Gespräche handvermittelt. 1952 wurde die Anlage auf vollautomatischen Betrieb umgestellt. Es handelte sich um die erste Anlage weltweit, welche vollautomatische Wahl zwischen Fahrzeug und stationären Telefonteilnehmern ermöglichte. Fahrzeuge der Zürcher Industriebetriebe waren mit solchen Anlagen ausgerüstet. Weitere Transport- und Taxiunternehmen führten diese Technik ein. Die festen Stationen wurden von der PTT errichtet und über Telefonleitung angesteuert. Bis 1975 entstanden 62 verschiedene private Netze mit 1300 Teilnehmern. Die Reichweite einer Sendezentrale betrug 25 Kilometer. Vorläufer dieser Technik waren die Hüttenfunkgeräte der SAC. Diese waren noch nicht mobil, ermöglichten aber drahtlosen Telefonverkehr. Die Ersten Anlagen gingen 1934 in Betrieb. Auf der 3140 Meter hohen Trienthütte wurde vom Genfer Funkamateur Roesgen die erste drahtlose Telefonanlage in Betrieb genommen, welche mit verschiedenen Talstationen kommunizierte. Besonders die Berner Hasler AG installierte solche Anlagen auf Schweizer Berghütten. Am 10. Mai 1943 wurde von der Hasler AG eine drahtlose Telefonanlage auf dem Pilatus installiert. Die Kosten einer solchen Anlage betrugen zwischen 1000 und 1500 Franken, die Gebühr 7.50 Franken pro Monat. Insgesamt wurden 150 Hütten mit dieser Technik ausgerüstet. Die ersten im A-Netz verwendbaren Autotelefone gab es in West-Deutschland ab 1958, wobei um 1968 eine Abdeckung von 80 % des Gebietes der Bundesrepublik Deutschland erreicht wurde. Die Geräte waren zunächst wegen der für die Funktechnik verwendeten Vakuumröhren recht groß, wurden aber mit Einführung der Transistoren bald sehr viel kleiner. Gespräche wurden handvermittelt, die Gerätepreise lagen bei etwa 50 % des Wagenpreises. Ab 1972 wurde in der Bundesrepublik auf das B-Netz umgestellt, das erstmals über die Möglichkeit verfügte, Selbstwählverbindungen herzustellen. 1973 stellte ein Entwicklerteam bei Motorola um Martin Cooper und Chefdesigner Rudy Krolopp den ersten Prototyp eines Mobiltelefons her. „Für das Innenleben plünderten die Ingenieure von Motorola damals UKW-Radios und kombinierten diese mit einem leistungsfähigen Stromspeicher, dem Metall-Hydrid-Akku“. Im Oktober 1973 meldeten sie ein Patent an. Cooper machte am 3. April 1973 den ersten Anruf über ein Mobiltelefon, bei dem er seinen Rivalen bei den Bell Labs anrief. Ab 1974 gab es auch in Österreich ein automatisch vermitteltes B-Netz. Sieben Jahre später hatte es 1000 Teilnehmer. Das Aufenthaltsgebiet (Österreich war in etwa 3 Gebiete mit jeweils eigener Vorwahl geteilt) eines Teilnehmers musste bekannt sein, um ihn anrufen zu können. 1975 wurde in der Schweiz das Nationale Autotelefonnetz (Natel) eingeführt. Das Netz war Anfangs für eine Kapazität von 10.000 Teilnehmern konzipiert worden und sollte die privaten Mobilnetze ersetzen. Doch der Netzausbau ging nur schleppend voran. Erst 1980 konnten die Ostschweiz und das Tessin versorgt werden. Die zum Umstieg gezwungenen Nutzer der ehemalig privaten Netze waren mit dem Ausbau und der Leistung des Systems oftmals unzufrieden. Der Anschaffungspreis von 8.000 bis 12.000 Franken war ihnen zu hoch, genauso wie die Monatsgebühr von 130 Franken pro Fahrzeug. Das Netz bestand aus fünf Teilnetzen (050 Westschweiz - 020 Zürich - 020 Bern, Basel, Jura - 070 Ostschweiz und 090 Tessin). Ab 1983 folgte Natel B; im selben Jahr wurde das bei Motorola seit 1973 entwickelte erste kommerzielle Mobiltelefon „Dynatac 8000x“ offiziell vorgestellt. Das analoge, technisch überholte analoge A- und B-Netz wurde in der Schweiz 1995 abgeschaltet. Ab 1985 gab es in Deutschland und Österreich das kleinzellige analoge C-Netz. Es ermöglichte eine geringere Sendeleistung der Telefone und damit kleinere, nicht mehr praktisch an Autoeinbau (auch im Kofferraum) gebundene Geräte. „Portables“, kleine Kistchen mit Tragegriff und einem angeschlossenen Telefonhörer sowie einer längeren Antenne, kamen auf den Markt. 1987 wurde in der Schweiz das Autotelefonnetz Natel C eingeführt. Im Gegensatz zu Natel A und Natel B handelte es sich dabei nicht um eine Eigenentwicklung der Schweiz. Es wurde der im 900 MHz bestehende Standard übernommen. Es wurden dafür knapp 1000 Basisstationen errichtet und im Endausbau konnte 95 % der bevölkerten Schweiz abgedeckt werden. Natel C ermöglichte einer breiten Schicht von Schweizern, mobile Telefonie zu nutzen. 1992 hatte Natel C 200.000 Nutzer. Das Natel C war immer noch vorrangig für Autotelefone konzipiert worden und primär für geschäftliche Belange gedacht. Die verwendeten Geräte mussten von der PTT zugelassen sein. Ein Betrieb von nicht geprüften Geräten war strafbar. Kleine und handliche Geräte, besonders aus den USA, waren meistens nicht zugelassen. 1993 versprach die PTT preisgünstigere und kleinere Geräte für jedermann. Billigere kleine, tragbare Geräte wurden offiziell eingeführt. Durch die Einführung flächendeckender digitaler Mobilfunknetze (D-Netz Ende der 1980er/Anfang der 1990er Jahre in Deutschland, Österreich und der Schweiz) konnte die benötigte Batterieleistung der Mobiltelefone und damit auch deren Größe erneut vermindert werden. 1992 wurde in den USA das erste GSM-fähige Mobilgerät von Motorola, das International 3200, vorgestellt. Im Sommer 1992 nahmen in Deutschland die Netze D1 (Betreiber: DeTeMobil Deutsche Telekom Mobilfunk) und D2 (Betreiber: Mannesmann Mobilfunk) den Betrieb auf. In der Schweiz wurde Natel D auf GSM-Basis lanciert. 2001 nahm die britische Manx Telecom auf der Isle of Man das weltweit erste UMTS-Netz in Betrieb; in Deutschland ist UMTS seit 2004 kommerziell verfügbar. Der 3G-Standard UMTS zeichnet sich durch deutlich erhöhte Datenraten aus, wodurch internetbezogene Anwendungen, vor allem auf Smartphones, erheblich beschleunigt werden. Der vorherige Trend, die Geräte immer mehr zu verkleinern, wurde durch größere Geräte mit großen Touchscreen-Bildschirmen teilweise umgekehrt. Ende 2009 wurden die ersten Mobilfunknetze der vierten Generation (4G) verfügbar; mit LTE und später LTE-Advanced erhöhten sich wiederum die maximal möglichen Datenraten. Eine Nutzung der 4G-Netze für Sprachdienste ist in Deutschland seit 2015 per VoLTE möglich. 2019 wurden Lizenzen für 5G versteigert und die ersten Masten in Großstädten eingeführt. Aufbau und Technologien Wie das drahtgebundene Telefon besteht das Mobiltelefon aus einem Lautsprecher, einem Mikrofon, einem Bedienteil (Tastatur und Anzeige) und einer Steuerung (meist ein Mikrocontroller). Zusätzlich hat es ein Funkteil (Sendeempfänger, Antenne) und eine eigene Stromversorgung (meist einen Akkumulator). Bei GSM-Telefonen ist zum Betrieb generell eine SIM-Karte notwendig (bis 2009 ausgenommen Notrufnummern), die zur Identifizierung gegenüber dem Mobilfunknetz genutzt wird. Mobiltelefone in Europa funktionieren heutzutage nach dem GSM-Standard. Sie benutzen Frequenzen um 900 MHz (D-Netz) beziehungsweise 1800 MHz (E-Netz). Erste Telefone, die Dualband-GSM, also D- und E-Netz, gleichermaßen unterstützen, kamen gegen Ende der 1990er Jahre auf. Das erste GSM-Telefon mit Dual-Band-Technik war das Motorola 8900. Triband-Mobiltelefone können zusätzlich auf 1900 MHz oder 850 MHz operieren, diese Frequenzen werden hauptsächlich in den USA genutzt. Quadband-Mobiltelefone beherrschen alle vier Frequenzen. Während die GSM-Basisstationen für Mobiltelefone Sendeleistungen von bis zu 50 Watt (D-Netz) bzw. 10 Watt (E-Netz) haben, kommen Mobiltelefone mit Sendeleistungen von max. 2 W (D-Netz) beziehungsweise 1 W (E-Netz) aus. Für die Übertragung wird als Modulationsart GMSK (Gaussian Minimum Shift Keying, eine weiterentwickelte, optimierte Version der FSK) verwendet. In der nächsten (dritten) Generation der Mobilfunkgeräte gibt es zwei konkurrierende Standards: Universal Mobile Telecommunications System, abgekürzt als UMTS, als eine Weiterentwicklung von GSM sowie den Standard CDMA2000, der vor allem in den USA weit verbreitet ist. Sowohl UMTS als auch CDMA2000 basieren auf Code Division Multiple Access (CDMA), sind aber zueinander nicht kompatibel. Beide arbeiten bei Frequenzen um 1800 bis 1900 MHz, benutzen viele kleine Funkzellen und sind für höhere Datenübertragungsgeschwindigkeit und höhere Nutzerzahl optimiert. Wegen der kleineren Funkzellen und bedingt durch weiterentwickelte Modulationsverfahren konnte die Sendeleistung der Mobiltelefone gegenüber GSM auf 0,125–0,25 W reduziert werden. Betriebssysteme Ältere GSM-Telefone (wie z. B. das im obigen Bild gezeigte Siemens S25) haben meist nur ein einziges Betriebssystem, welches alle Aufgaben wahrnimmt. Moderne Smartphones verwenden hingegen ein Echtzeit-Hauptbetriebssystem, auf welchem die Benutzeranwendungen ausgeführt werden, und das sogenannte Baseband-Betriebssystem, welches die eigentliche Kommunikation mit dem Handynetz übernimmt. Das Baseband-Betriebssystem ähnelt in der Funktionsweise einem herkömmlichen Nicht-Smartphone-Betriebssystem, hat jedoch üblicherweise keine Benutzeroberfläche und läuft im Hintergrund auf einem eigenen Prozessor und Speicher getrennt vom Hauptbetriebssystem. Das Hauptbetriebssystem des Mobiltelefons wird bei Smartphones meist nicht vom Hersteller produziert, sondern in Lizenz betrieben. Das unter Smartphones mit Abstand verbreitetste Betriebssystem ist Android. Ein weiteres verbreitetes System ist iOS von Apple. Das auf Windows NT basierende Windows Phone von Microsoft war das bevorzugte Betriebssystem auf Nokia-Smartphones. Auf herkömmlichen Nicht-Smartphones beziehungsweise klassischen Handys wird meist ein proprietäres Betriebssystem des Herstellers verwendet. Andere Betriebssysteme führen eher ein Nischendasein und konnten sich am Markt nicht durchsetzen. Dazu gehören unter anderem das erst seit 2013 verfügbare Firefox OS und die abgekündigten Systeme Bada, Symbian sowie Series 40 bzw. Asha. Einige wenige Mobiltelefone laufen mit linuxbasierten Betriebssystemen (z. B. Sailfish OS, Maemo, MeeGo und Tizen), zu deren Weiterentwicklung einige Firmen aus dem Mobilfunkbereich 2007 die LiMo Foundation gegründet haben. Die Entwicklung wurde jedoch weitestgehend eingestellt. Der Übergang von Smartphones zu PDAs und Tablets ist fließend (siehe Phablet/Smartlet). Schnittstellen Ein Mobiltelefon verfügt als Schnittstellen im Allgemeinen über: mindestens ein Modem (GSM, 3G, LTE oder 5G bei volldigitalen Mobiltelefonen), mit dem die Kommunikation zwischen Endgerät und Mobilfunknetz erfolgt. Bei vielen Telefonen können über das Modem zusätzlich Textnachrichten verschickt und auf das Internet zugegriffen werden. Mitunter kann das Modem auch in den vorherigen Modi funken, selten auch gleichzeitig, oder das Mobiltelefon besitzt ein zweites Modem. Außer bei den iPhones von Apple ist die kabelgebundene Schnittstelle heutzutage (2021) meist eine USB-Schnittstelle. Ältere Mobiltelefone haben proprietäre Kabelschnittstellen für intelligentes Zubehör (z. B. Nokia Pop-Port) oder Anschlüsse für eine Halterung in Kraftfahrzeugen. Infrarot war bis zu seiner Verdrängung durch effizientere Datenübertragungsstandards bei Mobiltelefonen verbreitet.Als leistungsfähigere Schnittstellen für den Nahbereich sind bei Mobiltelefonen oftmals Bluetooth, W-LAN und NFC im Einsatz. Vor allem bei Smartphones anzutreffen ist eine analoge Audioschnittstelle, meist ein 3,5 mm-Klinkenanschluss. Es gibt aber auch Smartphones mit nur drahtloser Audio-Übertragung mittels Bluetooth. Alternativ ist auch die Benutzung eines Adapters (USB-Typ-C auf Klinkenstecker) möglich. Eher selten ist eine Videoschnittstelle (Composite-Video oder Mini-HDMI-Anschluss). Häufiger wird für Video-Übertragung, falls unterstützt, W-LAN oder ein Adapter (USB-Typ-C auf HDMI) verwendet. Zum Laden des Akkus besitzt ein Handy entweder eine extra Ladebuchse, oder es wird die kabelgebundene Schnittstelle hierzu mitverwendet. Letzteres hat sich für Smartphones als Standard durchgesetzt. Mitunter kann auch drahtlos mittels magnetischem Wechselfeld geladen werden (z. B. Qi) Ladegeräte Die Ladegeräte unterscheiden sich von Hersteller zu Hersteller. Auf Druck der Europäischen Union vereinbarten alle großen Mobiltelefon-Hersteller (außer Apple) ab 2010 die Einführung eines gemeinsamen Standards für Ladegerätstecker auf der Grundlage des Micro-USB-Steckers. Damit können zukünftig alle neueren Mobiltelefone mit dem gleichen Ladegerät geladen werden. Seit 2016 wird vermehrt auch statt eines Micro-USB- ein USB-C-Anschluss verbaut, bei dem die Stecker in beliebiger Orientierung verwendbar und weitere Funktionen integrierbar sind. Ab 2017 müssen alle in der Europäischen Union verkauften Mobiltelefone und Smartphones sowie voraussichtlich auch andere kleinere mobil nutzbare Geräte, wie zum Beispiel Tablet-PCs, über einheitliche Ladegeräte versorgt werden können. Bauarten Übliche Bauformen (Candy-)Bar/Barren/Riegel – klassische Bauweise, die der Form eines Schokoriegels () ähnelt, beispielsweise Nokia 6230. Mobiltelefone, deren Tastatur von simplen Klappen oder Schiebemechanismen ohne weitere Funktion geschützt sind, zählt man zu den „Candybar“-Telefonen wie das Nokia 7110 oder das Motorola 8900. Kinderhandys und Seniorenhandys mit einfacher Bedienung. Flip/Clamshell/Klapphandy – zweigeteiltes Mobiltelefon mit einem Scharnier in der Mitte. Im aufgeklappten Zustand trägt der obere Teil meist das Display, der untere die Tastatur. Zusammengeklappt liegen beide Teile gegenüber und werden auf diese Weise geschützt. Beispiel: Motorola RAZR. Jack-Knife – horizontales Drehgelenk, beispielsweise Sony Ericsson W550i Slider (Schiebehandy) – Display und Bedientasten werden vertikal über die Wähltasten hochgeschoben, beispielsweise Samsung SGH D500. Swivel-Klapptelefone – mit drehbarem Bildschirm, beispielsweise Samsung SGH-P900. Touch Phones – Smartphones, die mittels eines Touchscreen-Displays und ggf. einer als Multi-Touch bezeichneten Technik vorwiegend mit den Fingern gesteuert werden. Bereits 1992 stellte IBM das erste Mobiltelefon mit Touchscreen vor. Andere Quellen zählen Mobiltelefone mit berührungsempfindlichen Bildschirmen zur Candy-Bar-Bauform. Spezialformen Armbandmobiltelefon oder Handyuhr Mobilfunk-GSM-Tischtelefone – herkömmlichen schnurgebundenen Festnetztelefonen nachgebaut – auch diese sind wie GSM-Gateways vornehmlich zum stationären Betrieb geeignet. In Deutschland wurde etwa das Modell GDP-02 des tschechischen Herstellers Jablotron von O2 und Vodafone vermarktet. Mobilfunk-Gateways – Sonderformen von Mobilfunk-Endgeräten zum stationären Betrieb, die den Anschluss von Telefonanlagen und herkömmlichen Festnetztelefonen ermöglichen. Kombinierte Bauformen - Einige Endgeräte, meist aus dem Segment „Experimental“ oder „Fashion“, sind aus verschiedenen Bauformen mit kombinierten Klapp-, Dreh- oder Schiebekonstruktionen konstruiert. Solarbetriebene Mobiltelefone Nach Einzug der solarbetriebenen Mobiltelefon-Ladestationen wurde bereits im Jahr 2001 von der südkoreanischen Firma „CR Telecom“ ein Solar-Mobiltelefon vorgestellt. Die Ladezeiten entsprachen in etwa den Gesprächszeiten, ein effektives Laden der Geräte war aber nur bei einfallendem Sonnenschein möglich. Im selben Jahr stellte das Fraunhofer-Institut für Solare Energiesysteme den Prototyp eines „Siemens-C25“-Mobiltelefons mit solarbetriebenem Akku vor. Diese neuartigen Module waren zwar kostengünstig, aber auch sie lieferten zu wenig Energie für akzeptable Gesprächszeiten. Ausstattung Mitteilungen Mobiltelefone ermöglichen es meist, Textnachrichten, eventuell auch kombiniert mit multimedialen Inhalten, zu versenden. Das „Short Message Service“ ermöglicht kurze Textmitteilungen von einer Länge bis zu 160 Zeichen. Die erste short message wurde im Dezember 1992 von einem PC an ein Mobiltelefon im britischen Vodafone-Netz gesendet. 1994 konnte ein Mobiltelefon auch erstmals eine SMS direkt verschicken. Für die Kurzmitteilungen hat sich der Name SMS eingebürgert, obwohl das Kürzel SMS eigentlich nur den Trägerdienst bezeichnet. Ursprünglich als reines „Abfallprodukt“ kostenlos angeboten, entwickelte sich SMS zum Hauptertragsbringer für die Netzbetreiber. Im Jahr 2005 wurden bundesweit über 61 Millionen Kurzmitteilungen pro Tag versendet, bis zum Jahr 2011 stieg die Zahl auf 148 Millionen. Bei einer gründlichen Betrachtung überrascht der Erfolg dieses Dienstes nicht, weil er in Kombination mit einem Mobiltelefon sehr viel gebrauchstauglicher zu nutzen ist als seine inzwischen fast schon vergessenen Vorgänger, die digitalen Funkmeldeempfänger (sogenannte Pager). Weiterentwicklungen von SMS existieren unter dem Namen Enhanced Message Service (EMS) und Multimedia Messaging Service (MMS). MMS bietet die Möglichkeit, mit einem Mobiltelefon multimediale Nachrichten (Videos, Bilder, Ton und Text) von bis zu 500 kB an andere mobile Endgeräte zu versenden. MMS ist nicht kompatibel zu SMS oder EMS, Endgeräte müssen MMS explizit unterstützen. Einige Netzbetreiber bieten andernfalls den Abruf der MMS über das Internet und ein Kennwort, das dem Empfänger per SMS mitgeteilt wird, an. Für Gehörlose und hochgradig Schwerhörige bietet somit die „SMS“-Funktion eine Möglichkeit, ein Mobiltelefon zu benutzen, wie auch beim Bild- und Schreibtelefon. Die Anzahl der in Deutschland versendeten Kurznachrichten stieg bis zum Jahr 2012 auf 163 Millionen pro Tag an. Seitdem ist ein deutlicher Abwärtstrend zu verzeichnen, innerhalb von zwei Jahren brach die Zahl der gesendeten Kurznachrichten um 55 % ein. Als Ursache dafür werden Instant-Messenging-Programme wie WhatsApp und Telegram gesehen. Mit dem Messenger WhatsApp wurden Anfang 2014 täglich etwa 50 Milliarden Nachrichten versendet, im April desselben Jahres stieg die Zahl auf 64 Milliarden an. Die SMS ist mit 55 Milliarden versendeten Einheiten unter das Niveau der Instant Messenger gefallen. Während jeder Bundesbürger zu Jahresanfang 2014 zwei SMS täglich verschickte, sendete jeder WhatsApp-Nutzer 30 Nachrichten pro Tag. Kamera Für Mobiltelefone mit eingebauter Kamera hatten sich zwischenzeitlich die Begriffe „Fotomobiltelefon“ bzw. „Fotohandy“ als Unterscheidungskriterium etabliert. Wegen der zunehmenden Verbreitung der Fotofunktion in Mobiltelefonen haben diese Begriffe jedoch schnell wieder an Bedeutung verloren. Geschichte 1999 erschien für den japanischen Markt das weltweit erste Mobiltelefon mit integrierter Digitalkamera, das Toshiba Camesse mit dem Betriebssystem GEOS-SC. Das Camesse wurde in Japan schnell zum Kultgerät und hatte mehrere Nachfolger. Im japanischen Internet existieren mehrere Dienste, auf die private Camesse-Fotos geladen und veröffentlicht werden können. Beim Camesse konnten die Fotos direkt im Mobiltelefon mit einer Grafiksoftware bearbeitet werden. Seit 2002 werden immer mehr Mobiltelefone mit integrierter Kamera ausgestattet. Bei diesen Fotomobiltelefonen befinden sich die Bildaufnahmegeräte meist auf der Rückseite des Mobiltelefons. Technischer Fortschritt Die fotografische Qualität der ersten Kameramobiltelefone reichte anfangs nicht an Digitalkameras gleicher Zeit heran. Gegen Ende 2002 gab es noch keine Mobiltelefonkameras, die Bilder mit mehr als 640 × 480 Pixeln aufnahmen. In Deutschland war das im Jahr 2004 erschienene Sharp GX 30 das erste Fotohandy mit einer 1-Megapixel-Kamera. Die Auflösung der Handykameras wuchs seit ihrer Einführung stetig an und fand im Samsung Galaxy S23 Ultra mit 200 Megapixeln ihren bisherigen Höhepunkt. Die Auflösung moderner Handykameras ist jedoch in den meisten Fällen nicht höher als 8 bis 13 Megapixel, da eine höhere Auflösung auf einem kleinen Bildsensor, wie er in einem Handy Platz finden muss, zu schlechter Bildqualität führt und auch das optische Linsensystem meist keine feineren Details ermöglicht. Das Unternehmen Apple bietet keine Smartphones an, deren Kameraauflösung mehr als 12 Megapixel beträgt. Mit den integrierten Kameras können meist auch Videos aufgenommen werden. Deren Qualität ist stark unterschiedlich und abhängig von Hersteller, Modell und Stand der Technik. Herkömmliche Nicht-Smartphones liefern meist schlechte Aufnahmen. Videoaufzeichnungen erfordern einen leistungsfähigen Grafikprozessor, um annehmbare Resultate zu erzielen. Bei modernen Smartphones ist dies oft gegeben, wodurch hier die Auflösung von Filmmaterial meist Full-HD, jedoch auch 4K oder sogar 8K beträgt. An die Qualität von Spiegelreflexkameras kommen Handykameras üblicherweise nicht heran, dennoch lassen sich Handykameras für die Aufzeichnung anspruchsvoller Filme verwenden. Mobiltelefonkameras machen es auch möglich, gedruckte QR-Codes zu lesen. Diese beinhalten dabei meist einen URL auf eine Webseite. Andere Anwendungsmöglichkeit ist etwa die Rückverfolgung von Lebensmitteln. Im Zuge der Versuche, Kameras in Mobiltelefone zu integrieren, gibt es auch die umgekehrte Variante, die Integration eines Mobilfunkmodems in eine Kamera. Beispiel für ein solches Gerät ist Samsung Galaxy Camera. Diese Kompaktkamera verwendet das Telefonbetriebssystem Android. Ebenfalls am Markt erhältlich sind Aufsteckobjektive für Mobiltelefonkameras sowie Digitalkameras, die sich mit einer Anwendung auf dem Telefon steuern lassen. Problematiken Das zunehmende Verschmelzen von einfachen Fotoapparaten und Mobiltelefonen birgt auch Gefahren in sich, die zu Kritik an dieser Funktionalität führen: Zunehmend verbieten größere Firmen ihren Mitarbeitern, Mobiltelefone mit Kamerafunktion auf das Werksgelände zu bringen. Diese stellen im Bereich der Werksspionage ein Sicherheitsrisiko dar. Wo bis dato ein Film- und Fotografierverbot galt, führt dies zu einem De-facto-Mobiltelefonverbot. Dies führt bei konsequenter Durchsetzung zu hohem Aufwand und Unverständnis bei Belegschaft und Besuchern. Fotohandys gerieten in die Kritik durch zunehmenden Voyeurismus, zum Beispiel in Badeanstalten oder Umkleidekabinen, bei denen die Opfer unbemerkt mit den unauffälligen Handys fotografiert oder gefilmt werden. Mit steigender Verbreitung von Fotohandys gerieten jugendliche Täter häufiger in die Schlagzeilen, die damit Gewaltakte fotografierten oder filmten und anschließend anderen zugänglich machten (Happy Slapping). Bekannt wurde der Fall einer gefilmten Vergewaltigung einer 16-Jährigen durch vier 13- bis 15-jährige Jugendliche 2006 im Volkspark Jungfernheide in Berlin. Anwendungen Musikplayer Seit 1998 sind Mobiltelefone mit integriertem FM-Radio (das Ohrhörerkabel wird als Antenne verwendet) und seit 2000 mit integrierter Musikabspielfunktion erhältlich. Mit derartigen Mobiltelefonen können Musikdateien wie bei einem MP3-Player in den Gerätespeicher geladen werden. Viele Mobiltelefone bieten seit 2001 die Möglichkeit, ihre jeweilige Speicherkapazität mittels einer Speicherkarte zu erweitern – je nach Modell bis zu mehreren GB. Internetzugriff Viele Mobiltelefone, die vor dem Populärwerden von Smartphones auf dem Markt kamen, besitzen einen Browser zum Surfen auf WAP- und Mobile-HTML-Seiten. Ein erstes WAP-fähiges Handy wurde bereits 1999 veröffentlicht. Die WAP-Technik ist mittlerweile obsolet und wurde von der Möglichkeit verdrängt, das herkömmliche Internet auf dem Handy zu nutzen. Steve Jobs kritisierte bei der Präsentation des iPhone die WAP-Technik als „Baby-Internet“ und stellte den Internet-Browser Mobile Safari als „ersten echten Internet-Browser auf einem Smartphone“ dar. Moderne Smartphones haben meist einen mitgelieferten Browser, mit dem sich HTML-Seiten relativ komfortabel betrachten lassen können. Alternativ lassen sich auf Smartphones auch Browser von Drittanbietern wie Opera Mini nachinstallieren. Moderne Smartphone-Anwendungen bieten für den Internetzugriff vielfältige Verwendungsmöglichkeiten, wie etwa das Abrufen von Aktien oder Wetterdaten sowie auf Online-Kartenmaterial gestützte Navigation. Auch Instant-Messenger verwenden zum Versenden von Textnachrichten das Mobile Internet. Push-to-talk Der Dienst Push-to-talk („drücken, um zu sprechen“) ermöglicht es, kurze Sprachnachrichten an einzelne Nutzer oder Gruppen zu versenden. Dieser Dienst wird in Deutschland nicht mehr unterstützt (vorher nur Telekom/D1). Durch die Popularität von Instant-Messengern erlebt die Push-to-talk-Funktion eine gewisse Renaissance, da derartige Programme eine solche Funktion bieten. Dies ist jedoch im Gegensatz zum ursprünglichen Push-to-talk nicht providergestützt, sondern basiert auf der Infrastruktur des Instant-Messengers. Apps Erste Anwendungen von Drittanbietern, sogenannte Apps (Abkürzung von Application, englisch für „Anwendung“) wurden durch die Vorstellung der Java ME (Java Micro Edition) im Jahre 1999 möglich. Es wurden in den Folgejahren mehrere Mobiltelefone mit der Java-Technik ausgestattet, wodurch die Midlets genannten Anwendungen eine gewisse Popularität erfuhren. Die Java-Plattform wurde 2007 abgekündigt. Mit dem Erscheinen von Smartphones wurden die Möglichkeiten von Anwendungen weiter ausgebaut. Beim Erscheinen des ersten iPhone war Steve Jobs für ein geschlossenes Betriebs- und Anwendungssystem, und meinte, Webapps würden den Dienst von nativ installierten Anwendungen genauso zuverlässig und schnell erledigen. Dennoch verkündete Apple am 17. Oktober 2007, auf Drängen des Vorstands und der Medien, im Februar 2008 ein Software Development Kit (SDK) für Entwickler freizugeben. Das Resultat für die Endbenutzer war der App Store, aus dem Apps heruntergeladen werden können. Dadurch lässt sich das Mobiltelefon um ein Vielfaches an Anwendungsmöglichkeiten erweitern. Mit Hilfe der Programmierumgebungen (SDKs) lässt sich das Mobiltelefon – wie viele andere Computersysteme – auch gravierender modifizieren. Ein Gerät kann somit vollkommen andere Aufgaben wahrnehmen als die ursprünglichen Mobiltelefonfunktionen. Seit der Einführung von Smartphones sind SDKs jedoch überwiegend für die Entwicklung kommerzieller Anwendungen (den genannten Apps) im Gebrauch, wie z. B. Xcode für das iPhone. GNSS-Empfang GPS- und GLONASS-Signale werden in Mobiltelefonen von Navigationsprogrammen genutzt. 2005 erschien bereits das erste Smartphone mit eingebautem GPS-Empfänger. Es handelte sich um das Siemens SXG75. Kurz darauf folgte das Motorola A780, allerdings fanden beide aufgrund niedriger Verkaufszahlen wenig Verbreitung. Erst 2007 folgten dann das Nokia N95 oder HTC P3300. GPS-Empfänger konnten aber auch vorher schon extern über Bluetooth oder Kabel angeschlossen werden. Frühere Versuche der Integration von GPS-Hardware in Mobiltelefone scheiterten an deren enormen Energiebedarf, einige Modelle kamen dennoch bereits ab 2001 auf den Markt. Seit ca. 2012 empfangen viele Smartphones neben GPS- auch GLONASS-Signale. Im Gegensatz zu Navigationsgeräten verlangten viele Mobiltelefonhersteller in der Anfangszeit noch Gebühren für Navigation. Dies geschieht meist über den Umweg, dass der Abgleich zwischen Position und Karte aktiv vom Netzanbieter über eine eigene Software erfolgt, in (A-GPS) durch die Hinzunahme einer Funkzellen-Ortung, die dann in Datenvolumen oder Kilometer abgerechnet wird, oft auch nur über eine Onlinekarte, die sekundär einen Zugang zum Internet erzwingt. Etliche Apps bieten mittlerweile jedoch auch eine gänzlich kostenlose Offline-Führung an, sofern das Mobiltelefon kompatibel ist und genug eigenen Speicher für die Karte aufweist. Eine externe GNSS-Maus kann den Empfang der Mobiltelefone verbessern. In der Anfangszeit lieferten Navigations-Programme wie Trekbuddy nur eine Kompass-Navigation bzw. benötigen für die exakte Straßen-Navigation vorher abgespeicherte Routendaten oder GPS-Punkte. Branding Viele Netzbetreiber bieten über ihre Independent Service Provider – auch „Brands“, also Tochterunternehmen genannt – nur solche Mobiltelefone an, die mit einer von ihnen speziell angepassten Software ausgestattet sind (sog. „Branding“ oder „Customization“). Viele Änderungen werden speziell für den Netzbetreiber oder für den Service-Anbieter des Kunden vorgenommen, bevor dieser das Mobiltelefon erwirbt. Dadurch werden Funktionen des Telefons erweitert, entfernt oder verändert. So werden Kunden durch zusätzliche Menüeinträge im Browser („Favoriten“) – im Extremfall sogar durch zusätzliche Tasten – automatisch zu den Portalseiten der Service-Anbieter oder der „Brands“ geführt, FAQ-Seiten hinterlegt, SIM-Lock eingerichtet, Rufnummerneinträge für Hotlines hinterlassen, der Netzbetreibername sowie der Hintergrund im Display geändert etc. Mittlerweile werden beim Branding oft normale Komfortfunktionen, wie etwa ein auf dem Gerät gespeichertes Bild per Knopfdruck an die Bildschirmgröße anpassen, entfernt. Üblich ist es auch, das Speichern von Spielen und ähnlicher Software (meist per Bluetooth und Infrarot) auf dem Telefon zu verhindern, um den Nutzer an die oft kostenpflichtigen „Downloadportale“ der Provider zu binden. Es besteht die technische Möglichkeit, die Software des Netzbetreibers wieder durch die des Telefonherstellers zu ersetzen (Debranding). Weitere Sende- und Empfangseinheiten Mobiltelefone, mit denen man mit zwei Netzkarten gleichzeitig anruf- und empfangsbereit ist, nennt man Dual-SIM-Handys. Moderne Dual-Sim-Telefone verfügen über 2 komplette Sende- und Empfangseinheiten, die nicht wie bei älteren Modellen manuell gewechselt werden müssen. Ebenfalls im Handel erhältlich sind Triple-SIM-Handys, mit denen man bis zu drei SIM-Karten in einem Gerät betreiben kann. Bezeichnung Entstehung der Bezeichnung „Handy“ Als gängige Bezeichnung für die neu eingeführten GSM-Mobiltelefone bürgerte sich ab etwa 1992 in der deutschen Umgangssprache der Begriff „Handy“ ein. Das in Deutschland oft gebrauchte Wort „Handy“ ist jedoch ein Scheinanglizismus, da es im englischsprachigen Raum fast nur als Adjektiv verwendet wird („praktisch, bequem, handlich“) und nicht als Bezeichnung für ein Mobiltelefon. Von einigen – etwa vom Verein Deutsche Sprache – wurde die eingedeutschte Schreibweise Händi empfohlen, die sich allerdings nicht durchsetzen konnte. Zur Entstehung des Begriffs gibt es zahlreiche widersprüchliche Erklärungsansätze, die bislang nicht schlüssig belegt werden konnten. Im Zweiten Weltkrieg produzierte Motorola erstmals neben dem Walkie-Talkie SCR-300, das auf dem Rücken getragen wurde, das Handie-Talkie SCR-536, das man wie ein Telefon in der Hand halten konnte. Bis heute gibt es Nachfolgemodelle dieses Namens, der seit 1963 auch in englischen Wörterbüchern geführt wird. Das erste D-Netz-Mobiltelefon, das den Begriff Handy im Namen führte, war das 1992 von Loewe vorgestellte HandyTel 100. In deutschsprachigen CB- und Funkamateur-Kreisen gab es die Bezeichnung Handy schon vor 1992. Gemeint war damit ein hand-held transceiver, also ein in der Hand gehaltener Sender und Empfänger. Meist waren damit kleine, so ähnlich wie ein Telefon aussehende Funkgeräte für UKW-Bänder gemeint, wie z. B. das YAESU FT23. Diese Funkgeräte waren relativ klein und konnten mit einer Hand bedient werden; andere CB-Funkgeräte waren wesentlich größer und mussten in der Regel mit zwei Händen bedient werden. Das US-amerikanische sowie südafrikanische Englisch spricht meist vom cell(ular) phone (cell ist die Zelle rund um einen Transceiver im mobilen Netzwerk), im britischen Englisch vom mobile phone oder kürzer mobile. Wenngleich es von Nicht-Muttersprachlern verwendet wird und es vereinzelte Anläufe gab, es im Englischen einzuführen, wird das Substantiv „Handy“ im englischsprachigen Raum weder benutzt noch verstanden. Ein handliches Taschenlampenmodell der Firma Daimon wurde 1937 unter dem Namen „Handy“ als Warenzeichen eingetragen: Es war das erste „Handy“ Deutschlands. In der Schweiz hat sich der Ausdruck Natel (als Abkürzung für Nationales Autotelefon) eingebürgert. Der Ausdruck wird jedoch von der Telefongesellschaft Swisscom als geschützte Marke allein für ihre Dienste beansprucht. Im Zuge der Öffnung des Mobilfunkmarktes verbreitet sich auch in der (deutschsprachigen) Schweiz der vom Netzbetreiber unabhängige Name Handy immer mehr. Die damalige Bundeskanzlerin Corina Casanova erklärte im Jahr 2008, dass die Schweizerische Bundeskanzlei das Wort Handy nicht verwende, weil es ein Beispiel dafür sei, dass Anglizismen „bei uns oft eine andere Bedeutung haben als ihnen im Englischen zukäme“. Außerdem gibt es in der Schweiz bereits seit 1958 den eingetragenen Markennamen Handy für ein bekanntes Geschirrspülmittel der Mifa AG, das von dem Handelskonzern Migros vertrieben wird. Bezeichnungen in anderen Sprachen bzw. Ländern Auch in anderen Sprachen haben sich teilweise sehr plastische Bezeichnungen für das Mobiltelefon eingebürgert. Zumeist richtet sich die Bezeichnung nach einer augenfälligen Eigenschaft des Gerätes. Als sein wichtigstes Charakteristikum gilt die Portabilität: Der lateinische Wortstamm mobile findet sich etwa in der deutschen Bezeichnung Mobiltelefon. Die Bezeichnung findet sich auch im Englischen (, ) und in vielen anderen Sprachen wieder, etwa im Spanischen () oder im Katalanischen (). Daneben haben sich die Bezeichnungen „Tragbares“ (portable im Französischen, keitai ( oder auch ) im Japanischen) oder „Reisetelefon“ () im Finnischen etabliert. In manchen Ländern richtet sich die Bezeichnung der Mobiltelefone nach deren Aufbewahrungsort: „Hosentaschen-Telefon“ () im Türkischen, „Taschentelefon“ ( oder ) im Schottisch-Gälischen und im Irischen. In wieder anderen Sprachen zielt die Bezeichnung darauf ab, dass Mobiltelefone zum Telefonieren in der Hand gehalten werden: „Handtelefon“ () im Schottisch-Gälischen, in vielen asiatischen Ländern (besonders: Singapur/Malaysia), sau kei oder shǒu jī () (jeweils „Handmaschine“) in China, als Kurzform von („handgehaltenes Telefon“) in Thailand. Oft nimmt die Bezeichnung auch den „zellulären“ Charakter des Mobiltelefonnetzes auf; eine häufige Bezeichnung ist daher „Netz-“ oder „Zelltelefon“ – so zum Beispiel das Englische / (vor allem US-amerikanisches Englisch), das spanische , khelyawi im Libanon, in Polen oder () in Indonesien. Im Italienischen ist neben der Bezeichnung () – die den amerikanischen Sprachgebrauch widerspiegelt – auch die Diminutivform , also: „Telefönchen“ gebräuchlich. Während in Portugal die Bezeichnung üblich ist, sagt man in Brasilien . In anderen Ländern wiederum leitet sich die Bezeichnung vom GSM-Standard ab: Bulgaren bezeichnen Mobiltelefone neben () auch als (), Isländer als (was auf Isländisch außerdem so viel bedeutet wie junges Schaf). Im niederländischen Sprachraum gibt es regionale Unterschiede bei der Bezeichnung. Während der allgemeine Begriff lautet, welcher gerade in den Niederlanden selbst auch oft im abkürzenden Diminutiv gebraucht wird, findet sich besonders in Flandern, aber auch im Großherzogtum Luxemburg, weitverbreitet der Begriff GSM. Auch in Slowenien wird der Ausdruck (in englischer Aussprache) oder aber verwendet. Auch ist gebräuchlich. In manchen Ländern wird das Mobiltelefon nach Netzbetreibern oder Herstellern benannt, die sich als erstes etabliert haben. So ist in der Schweiz unabhängig der Landessprache der Begriff „Natel“ üblich, der durch den gleichnamigen Markennamen des Netzbetreibers geprägt wurde. Darüber hinaus finden sich auch gänzlich andere Bezeichnungen: Im Iran werden Mobiltelefone als „Begleittelefon“ ( oder – ) bezeichnet, in Israel als „Wundertelefon“ ( – ). Hierbei ist zu bemerken, dass Pelephone auch der erste israelische Netzanbieter war. Das Wort wurde deshalb auch ins Palästinensisch-Arabische übernommen und als ausgesprochen. In vielen arabischen Ländern wie den Vereinigten Arabischen Emiraten oder Saudi-Arabien wird es – bezeichnet, was „das, was durch die Gegend spaziert“ bedeutet und der Name der dortigen ersten Netzbetreiber ist. Dies ist zwar auch in den Palästinensischen Autonomiegebiete der Fall, dort hat sich aber der israelische Name bilifōn gehalten. Auf Dänisch, Schwedisch und Norwegisch heißt Mobiltelefon oder kurz . In Schweden sind daneben umgangssprachlich auch (zu = „(Hosen-)Tasche“) und zu hören. Letzteres bedeutet „Teddybär“ – das kam ursprünglich vom Ausdruck , da sich bis in die späten 1980er Jahre nur reiche Yuppies Mobiltelefone leisten konnten, die sie dann stolz „wie einen Teddybären“ umhertrugen. Bezeichnung für frühe, klobige Geräte Ein originär deutscher Begriff für besonders klobige, frühe Mobiltelefone ist „Knochen“, eine Bezeichnung, die wegen der charakteristischen Form ursprünglich für den Telefonhörer verwandt wurde. Das Mobiltelefon im Alltag Mobiltelefone als Ruhestörer In einigen Umgebungen, insbesondere bei Aufführungen in Kinos, Theatern oder Opern und vor allem in Gotteshäusern oder auf Friedhöfen, wird die Nutzung von Mobiltelefonen häufig als störend empfunden. Deshalb gehen etwa Kinobetreiber dazu über, die Nutzung aktiv oder passiv zu unterbinden. Zur Handy-Etikette gibt es je nach Region unterschiedliche Einstellungen. In Ländern wie den USA ist der Einsatz von Störsendern mittlerweile gängige Praxis, um eine störungsfreie Aufführung zu gewährleisten. In anderen Ländern wie auch Deutschland ist jedoch die Nutzung der Sendefrequenzen untersagt, da diese exklusiv den Netzbetreibern vorbehalten sind. Die Betreiber setzen deshalb auf die passive Störung von Funktelefonen durch eine gute Abschirmung der Säle. Das führt allerdings auch dazu, dass Mobiltelefone die maximale Sendeleistung abstrahlen. In vielen Ländern wird das Führen von Mobilfunkgesprächen in öffentlichen Verkehrsmitteln von den Mitfahrern oft als störend und als indirekter Zwang zum Mithören empfunden, zumal dabei meist lauter gesprochen wird als im Gespräch mit anwesenden Personen. In manchen Ländern, so in Japan, gilt es als verpönt, in öffentlichen Verkehrsmitteln Telefongespräche zu führen oder auch nur Klingeltöne erklingen zu lassen; auf diese Verhaltensregel wird mit Ansagen aufmerksam gemacht. In Graz wurde 2008 in den städtischen öffentlichen Verkehrsmitteln ein Telefonierverbot erlassen, das aber nicht durchgesetzt wird. Mobiltelefone und Straßenverkehr Die Benutzung eines Mobiltelefons während der Fahrt ohne Freisprecheinrichtung ist Fahrzeugführern in vielen Ländern verboten (auch in Deutschland, Österreich und der Schweiz). Bei Nichtbeachtung des Verbotes werden Bußgelder, in Deutschland zusätzlich auch eine Eintragung von einem Punkt im Fahreignungsregister verhängt. In Deutschland wurden im Jahr 2011 in 450.000 Fällen Autofahrer mit einem Mobiltelefon am Steuer ertappt. In Deutschland darf nach Abs. 1a StVO der Fahrzeugführer ein Mobil- bzw. Autotelefon oder sonstiges elektronisches Gerät, das der Kommunikation, Information oder Organisation dient, nur benutzen, wenn hierfür das Mobiltelefon oder der Hörer des Gerätes nicht aufgenommen oder gehalten werden muss und die Bedienung des Geräts über eine Sprachsteuerung erfolgt oder zur Bedienung nur eine situationsangemessene, kurze Blickzuwendung erforderlich ist. Dies gilt nicht, wenn das Fahrzeug steht und bei Kraftfahrzeugen der Motor vollständig ausgeschaltet ist. Ein Verstoß gegen das Nutzungsverbot von Mobiltelefonen und anderen elektronischen Geräten, die der Kommunikation, Information oder Organisation dienen, wird mit einem Bußgeld von 100 Euro und der Eintragung eines Punktes im Fahreignungsregister geahndet. Bei Verstößen mit einer Gefährdung Anderer oder mit einem Verkehrsunfall erhöht sich das Bußgeld auf 150 Euro bzw. 200 Euro. Zudem werden in diesen Fällen zwei Punkte im Fahreignungsregister eingetragen und zusätzlich ein einmonatiges Fahrverbot verhängt. Das Verbot der Benutzung eines Mobiltelefons gilt in Deutschland auch für Fahrradfahrer. Für einen Verstoß durch einen Fahrradfahrer ist nach der aktuellen Fassung des Bußgeldkataloges ein Verwarnungsgeld in Höhe von 55 Euro vorgesehen. Kinder unter zehn Jahren, die mit einem Kinderfahrrad fahren, werden nach der StVO als Fußgänger angesehen, weshalb für sie das Verbot der Benutzung eines Mobiltelefons nicht gilt. Als Benutzung des Mobiltelefons wird in der deutschen Rechtsprechung auch das Ablesen der Uhrzeit (OLG Hamm, Az. 2 Ss OWi 177/05), die Nutzung eines Mobiltelefons als Navigationssystems (OLG Köln, Az. 81SsOWi49/08) sowie das „Wegdrücken“ eines Anrufes (OLG Köln, Az. III-1RBs39/12) erachtet. Nicht als gegen das Verbot der Nutzung eines Mobiltelefons im Sinne von § 23 Abs. 1a StVO gerichtet wurde hingegen das Aufnehmen des Mobiltelefones, ausschließlich zu dem Zweck, es von einem Ablageort an einen anderen zu legen (OLG Köln, Az. 83 Ss-OWi 19/05) sowie das Aufheben eines auf den Beifahrerfußraum gefallenen Mobiltelefons, um es auf den Beifahrersitz zu legen (OLG Düsseldorf, IV-2 Ss OWi 134/06-70/06 III). Nach einem Beschluss der Oberlandesgerichtes Hamm vom 24. Oktober 2013 ist „die wiederholte verbotswidrige Benutzung eines Mobil- oder Autotelefons […] geeignet, die Anordnung eines Fahrverbots wegen einer beharrlichen Pflichtverletzung zu rechtfertigen“ (Az.: 3 RBs 256/13). Als Grund für das Verbot wird die Ablenkung des Fahrers sowie gegebenenfalls der Wegfall einer Hand für das Lenken genannt. Ein Headset wird, im Gegensatz zu Deutschland, nicht in allen anderen Ländern als Freisprecheinrichtung anerkannt. Für Motorradfahrer, die auch während der Fahrt ihr Mobiltelefon nutzen möchten, existieren spezielle Motorrad-Gegensprechanlagen. Doch selbst bei Nutzung einer Freisprecheinrichtung kann ein Fahrzeugführer erheblich vom Verkehrsgeschehen abgelenkt werden. Britischen Studien zufolge muss die Fahrbeeinträchtigung des Fahrzeugführer durch das Telefonieren mit derjenigen gleichgesetzt werden, die unter Alkoholeinfluss erfolgt. In Österreich ist das Telefonieren mit einem Mobiltelefon während des Lenkens eines Kraftfahrzeugs seit dem 1. Juli 1999 verboten. Als Strafe ist eine Zahlung von 50 Euro vorgesehen, bei nicht sofortiger Zahlung kann von der Sicherheitsbehörde eine Geldstrafe bis zu 72 Euro oder alternativ eine 24-stündige Freiheitsstrafe verhängt werden. Die Anbindung des Mobiltelefons an die Freisprecheinrichtung des Kfzs kann entweder über einen sogenannten Snap-in-Adapter erfolgen, oder kabellos über den Datenübertragungsstandard Bluetooth, und zwar über die Bluetooth-Profile Hands Free Profile (HFP) oder remote SIM Access Profile (rSAP), wobei rSAP aufgrund der Nutzung der Außenantenne des Kfzs zu bevorzugen ist, bislang aber nur von einigen wenigen Mobiltelefonen unterstützt wird. Wenn Fußgänger durch ihr Mobiltelefon abgelenkt werden, steigt die Unfallgefahr erheblich. Laut einer Studie des Versicherungskonzerns Allianz aus dem Jahr 2019 zu Fußgängerunfällen in Deutschland telefonieren heute zwei Drittel der Fußgänger gelegentlich beim Gehen, jeder zweite Fußgänger tippt beim Gehen auf das Display oder die Handytasten, etwa ein Drittel hört Musik. Beim Tippen von Texten steigt die Wahrscheinlichkeit eines Unfalls um das Doppelte, beim Musikhören um das Vierfache. Bei Straßenverkehrsunfällen setzen Unfallbeteiligte häufig die Kamerafunktion des Mobiltelefons zu Dokumentation der Unfallstelle ein – ggf. auch zusätzlich zur Verkehrsunfallaufnahme durch die Polizei. Mobiltelefone als Mittel der Authentifizierung und der Identifikation In der Zwei-Faktor-Authentisierung sind Mobiltelefone und Smartphones von Dienstleistern, unter anderem von Banken, genutzt, um eine Authentifizierung ihrer Kunden durchzuführen. Umstritten sind der Einzug und die Durchsuchung des Mobiltelefons zur Identitätsklärung von Asylsuchenden und zur Feststellung ihrer Reiseroute. In Deutschland ist dies in Abs. 3 Satz 1 AufenthG geregelt. Das Mobiltelefon im Krankenhaus In Krankenhäusern ist das Einschalten von Mobiltelefonen oft nicht erlaubt, da befürchtet wird, die elektromagnetischen Felder könnten die Funktion medizinischer Geräte beeinträchtigen. Untersuchungen der Universitätsklinik Gießen haben allerdings ergeben, dass medizinische Geräte erst bei einem Abstand von weniger als einem Meter durch Mobiltelefone beeinträchtigt werden können. Es würde also ausreichen, das Verbot in Krankenhäusern auf Räume wie Intensivstationen zu beschränken. Eine an der Mayo-Klinik durchgeführte Studie ergab ebenfalls, dass Krankenhausgeräte nicht von Mobiltelefonen beeinflusst werden: In 300 Tests fanden die Forscher keinen einzigen Nachweis dafür, dass die Nutzung eines Mobiltelefons zu einer Störung von Apparaten auf Intensivstationen und in anderen Bereichen des Krankenhauses führen könnte. Alle zugelassenen Geräte, besonders natürlich die in Krankenhäusern, müssen eine Mindeststörfestigkeit aufweisen, die ein Mehrfaches des beim Betrieb von Mobiltelefonen erreichten Signals betragen muss. Das Mobiltelefon im Flugzeug Auch in einigen Flugzeugen ist Mobiltelefonieren während des Fluges inzwischen erlaubt. Für Flugzeuge sind Systeme entwickelt worden, die den Gebrauch von Mobiltelefonen an Bord mitunter erst ermöglichen. Mehrere Fluggesellschaften planen, ihre Flugzeuge mit Sendegeräten auszustatten, die die Funksignale der Mobiltelefone über Satelliten an die Mobilfunknetze weiterleiten. Die Sendeleistung der Mobiltelefone wird durch das Bordsystem auf ein Minimum reduziert. Die Luftfahrtstandardisierungsgremien EUROCAE working group 58 und ihre US-amerikanische Entsprechung RTCA special committee 202 haben sich eingehend mit dem Thema befasst und Prüfvorschriften zum Nachweis der elektromagnetischen Verträglichkeit zwischen Mobilfunk und Bordelektronik entwickelt. EUROCAE hat die zugehörigen Nachweisverfahren und Analysen im Dokument ED-130 niedergelegt. In Deutschland regelt die Luftfahrzeug-Elektronik-Betriebs-Verordnung (LuftEBV) den Gebrauch elektronischer Geräte an Bord von Flugzeugen. In der neuen Fassung der LuftEBV, die am 7. März 2008 in Kraft trat, wurde der Gebrauch von Funktechniken innerhalb der Kabine gegenüber vorherigen Versionen der Verordnung auf Basis der Arbeiten der oben genannten EUROCAE- und RTCA-Gremien gelockert. Erste Mobilfunksysteme sind bereits in Übereinstimmung mit den einschlägigen Bauvorschriften für Flugzeuge von den europäischen Luftfahrtbehörden zugelassen. Gegenwärtig ist aber das Telefonieren mit Mobiltelefonen in der überwiegenden Mehrzahl der Flugzeuge nicht gestattet. Für die 1,8 GHz-GSM-Funknetze (E-Netze) liegt die Reiseflughöhe von Verkehrsflugzeugen (mehr als 10 Kilometer) bereits am Rande der Reichweite (Zellengröße meist max. 8 km), D-Netz-Zellen besitzen bis zu 50 km Funkreichweite. Der Rumpf vieler Verkehrsflugzeuge besteht aus Aluminium und dämpft Funksignale erheblich. Die ersten Großraumflugzeuge, deren Rumpf zu erheblichem Anteil aus kohlenstofffaserverstärktem Kunststoff besteht, sind der Airbus A350 sowie die Boeing 787 Dreamliner. Mobiltelefonstrahlenfilter Vielfach werden sogenannte Mobiltelefonstrahlenfilter angeboten, die angeblich vor Strahlung schützen sollen. Solche Aufkleber oder Folien können die Nutzaussendung des Geräts beeinträchtigen. Hierdurch kann der Regelkreis zwischen Mobilteil und Basisstation gestört werden. Dann sendet das Mobilgerät (und auch die Feststation) mit höherer Leistung, als in der jeweiligen Situation ohne Folie erforderlich wäre. Das Anbringen jeglicher Vorrichtungen (Blinkantennen, Metallfolien und dergleichen) an einem Mobiltelefon ist nur dann zulässig, wenn es der Hersteller ausdrücklich gestattet, da sonst die Zulassung zum Betrieb des Gerätes in der EU gemäß den einschlägigen Gesetzen und Richtlinien erlischt (Österreich). Allgemein kann jede Veränderung, die die Funkeigenschaften beeinflusst (insbesondere anbringen elektrisch leitfähiger Objekte), zu empfindlichen Strafen führen, insbesondere bei verstärkender, richtender oder störender Wirkung. Mobiltelefone in der Kunst Bei einer ganzen Reihe von Kunstprojekten wurden Mobiltelefone verwendet, um Interaktionen zu ermöglichen. So hat zum Beispiel das Projekt Blinkenlights unter anderem bei seiner Aktion Blinkenlights 2001 am Alexanderplatz in Berlin es Mobiltelefonnutzern ermöglicht, Lichtinstallationen per SMS zu steuern. Ein weiteres Beispiel stellt das sogenannte „Saroskop“ des Künstlers Martin Hesselmeier dar. Das Saroskop reagiert auf elektromagnetische Strahlung und ermöglichte damit u. a. Besuchern der Art Cologne 2008, mit ihren Handys Einfluss auf die Bewegungen des kinetischen Objekts zu nehmen. Mobiltelefone werden passgenau mit bekannten Kunstmotiven beklebt, um eine Individualisierung im Alltag zu erreichen. Dazu werden bedruckbare Beschriftungsfolien eingesetzt, diese gewährleisten einen Schutz der Gehäuse vor Kratzern sowie die Verwendung des Mobiltelefon als einzigartiges Kunstobjekt mit Motiven bekannter Kunstschaffender. Notruffunktion Mit jedem Mobiltelefon kann der Notruf 112 (über die „911“ gelangt man mit manchen Mobiltelefonen ebenso zur Notrufzentrale) erreicht werden, auch wenn kein Guthaben vorhanden ist. Seit dem 1. Juli 2009 ist es nötig, dass eine SIM-Karte eingelegt ist. Deutschland setzte damit eine EU-Richtlinie um, welche den Missbrauch von Notrufnummern verhindern soll. Zeitweise waren 80 Prozent der abgegebenen Notrufe missbräuchlich. Nutzungsdauer Die durchschnittliche Besitzdauer eines Mobiltelefons beträgt in Deutschland, bedingt durch Vertragslaufzeiten und Innovationszyklen, 18 bis 24 Monate. In Europa werden jährlich etwa 100 Millionen Altgeräte entsorgt. Das entspricht 10.000 Tonnen oder 400 LKW-Ladungen. Seit dem 24. März 2006 können in Deutschland Mobiltelefone laut dem Elektro- und Elektronikgerätegesetz vom Verbraucher kostenlos entsorgt werden. Das EU-Parlament will festverklebte Handy-Akkus verbieten, um zu verhindern, dass mit dem Ende der Lebensdauer von Akkus das ganze Produkt weggeworfen werden muss. Die Nutzer sollen sie einfach mit handelsüblichen Werkzeugen austauschen können und der Hersteller muss sicherstellen, dass es für die erwartete Lebensdauer eine Produkts Ersatzakkus gibt. Die Abgeordneten stimmten im März 2022 für einen solchen Vorschlag der EU-Kommission. Die Industrie wehrt sich gegen das Vorhaben und argumentiert, das gefährde die Haltbarkeit und Sicherheit der Batterien. Mobiltelefonindustrie Entwicklung Bei der Einführung des kommerziellen volldigitalen 900-MHz-GSM-Mobilfunks im Jahr 1992 in Deutschland gab es bundesweit eine Million Mobiltelefonbesitzer. Bis zum Jahr 1998 stieg die Zahl auf 13,9 Millionen. 1998 prognostizierte man für das Jahr 2005 46,3 Millionen Mobiltelefonbesitzer, tatsächlich waren es 2005 etwa 57,4 Millionen. Bis zum Jahr 2013 stieg die Zahl auf 63 Millionen an; 40,4 Millionen davon waren Smartphone-Nutzer. Die Mobiltelefonindustrie ist sowohl einem starken Wachstum als auch einer schnellen Zielproduktveränderung unterlegen. Gegen 1999 wurde für die Mobiltelefonindustrie ein starkes Wachstum prognostiziert. Im ersten Halbjahr 1999 stieg der Umsatz mit privat genutzten Mobiltelefonen in Deutschland um 7 % auf 1,35 Milliarden DM. 2013 waren es für das Gesamtjahr 8,3 Milliarden €. Der Absatz sogenannter Smartphones hat in den letzten Jahren stetig zugenommen. Dabei hat sich auch die Bedeutung des Terminus gewandelt: Während ursprünglich (2004) ein Mobiltelefon mit PDA-Funktion als Smartphone bezeichnet wurde, versteht man heute (2014) ein Mobiltelefon mit großem berührungsempfindlichem Bildschirm und Apps als Smartphone. Es wird daher noch nicht sehr lange zwischen herkömmlichen Mobiltelefonen und Smartphones unterschieden. Im Jahr 2005 wurde der Gesamtabsatz von Mobiltelefonen weltweit auf 810 Millionen geschätzt. Im Jahr 2006 wurden weltweit 64 Millionen Smartphones verkauft. Der Absatz von Smartphones würde somit im Jahr 2006 grob geschätzt 8 % des Gesamtabsatzes ausgemacht haben, zum Vergleich: 2013 waren es 55 % des weltweiten Absatzes an Mobiltelefonen. Auch die Anzahl der abgesetzten Smartphones nahm in den letzten Jahren stetig zu, 2010 waren es 300 Millionen, 2011 rund 490 Millionen und 2013 eine Milliarde. Weltweit wurden im Jahr 2013 rund 1,8 Milliarden GSM-Telefone ausgeliefert, 1 Milliarde davon waren Smartphones. Der generierte Smartphone-Umsatz lag bei 181 Milliarden Dollar. Marktführer der Hersteller war Samsung mit einem Marktanteil von 31 %. Von sämtlichen in Betrieb befindlichen Smartphones liefen 2014 rund 1,3 Milliarden (80 %) mit dem Betriebssystem Google Android, 360 Millionen mit Apple iOS. Im Jahre 2016 waren weltweit 7,1 Milliarden Mobiltelefone im Umlauf. Rohstoffsituation 2010 bestehen knapp 5 Milliarden Mobiltelefonverträge weltweit und es werden jährlich eine Milliarde Geräte hergestellt, die Haltbarkeit oder Nutzungsdauer liegt im Mittel bei drei Jahren. Ein Mobiltelefon besteht zu 56 % aus Kunststoff, zu 25 % aus Metall und zu 16 % aus Glas und Keramik, zusätzlich zu drei Prozent aus Sonstigem. Zu den verwendeten Metallen bzw. Übergangsmetallen gehören: Tantal: Coltan, das Ausgangsmaterial für Tantal reicht noch 150 Jahre, aber die Produktion ist begrenzt. Es gibt momentan (2010) keinen Austauschstoff. Gallium: Es ist Nebenprodukt der Aluminium- und Zinkherstellung. Die Reserven sind nicht knapp. Indium: Pro Jahr werden 600 t raffiniert. Die Gewinnung ist an die Förderung von Zink gebunden. Für Flachbildschirme, Displays und Leuchtdioden ist es bislang unersetzlich. Lithium: Lithium ist kein selten vorkommendes Element (häufiger als beispielsweise Blei); seine Gewinnung ist jedoch durch die stärkere Verteilung schwierig. Palladium: Die begrenzte Rohstoffmenge wird von der Nachfrage aus der Automobilindustrie bedrängt. Platin Weitere wichtige Metalle sind Kupfer (Leiterplattenherstellung), Gold und Silber (korrosionsbeständige Kontaktoberflächen, Bond-Verbindungen) sowie Zinn und Blei (Lötverbindungen). Blei wird aufgrund von RoHS bei neuen Mobiltelefonen allerdings kaum mehr eine Rolle spielen. Auch Beryllium ist als gut legierbarer Stoff in Leiterplatten enthalten. Antimon ist Bestandteil von bleifreien Loten und insbesondere in den Kunststoffgehäusen und der Tastatur als Flammhemmer enthalten. Das Recycling erfordert das Trennen des Materialgemisches. In einer Tonne „Mobiltelefon“ sind immerhin 4 Gramm Platin, 340 Gramm Gold und 3500 g Silber enthalten. Deshalb gilt das Recycling verbrauchter Produkte als wichtige Rohstoffquelle, zumal 80 % der verwendeten Materialien eines Mobiltelefons wiederverwertet werden können. Dazu wäre eine spezialisierte Industrie und die komplette Rücknahme verbrauchter Mobiltelefone nötig. Für ein solches Recyclingsystem plädierte im Juni 2012 der Sachverständigenrat für Umweltfragen im Sinne der Einführung eines Pfandsystems für Mobiltelefone, wobei der Vorsitzende des Umweltrates Martin Faulstich eine Pfandhöhe zwischen 30 und 100 Euro vorschlug. Es werden bis zu 30 Metalle und Mineralien zur Herstellung eines Mobiltelefons benötigt. Einige dieser Metalle werden vor allem in Minen abgebaut, die von sogenannten Warlords kontrolliert werden. Diese finanzieren mit den Gewinnen aus den Minen ihre Armee und somit den Bürgerkrieg, z. B. den Ostkongo-Konflikt. Herstellungskosten von Mobiltelefonen Zwischen dem Endkundenpreis von Mobiltelefonen und den Herstellungskosten liegen oft erhebliche Differenzen von bis über 75 %. Selbst die Prozessoren sind durch die Massenproduktion im Einkauf für die Geräte-Hersteller oft kaum teurer als einstellige Dollarsummen, ebenso die Bildschirmanzeige und der verbaute Speicher. So berichtete z. B. die Sendung Spiegel TV am 26. August 2012, ein damals 629 Euro teures iPhone 4 koste in der Herstellung (Bauteile und Löhne für die Montage) nur 155 Euro, exklusive noch Kosten für z. B. Lizenzen, Softwareentwicklung, Fracht, Vertrieb, Marketing, Verwaltung, Steuern und Zoll. Einige Verbraucherseiten wie isuppli.com veröffentlichen zudem auch regelmäßig Ergebnisse über die Diskrepanz zwischen dem Wert der Hardware und den von den Herstellern verlangten Preisen. Das 2013 erschienene Telefon Galaxy S4 der Firma Samsung etwa hat demnach ca. 236 Dollar Bauteil- und Materialkosten. Dabei entfallen z. B. ca. 30 Dollar auf den Prozessor, 75 auf den Bildschirm und 16 auf die Infrarot-Gestik- und Temperatur-Sensoren. Das Smartphone erschien in Deutschland mit 16 GB Speicher für ca. 649 Euro im Einzelhandel, was ca. 836 Dollar entsprach, allerdings noch ohne den in der Auflistung aufgeführten, modernen Prozessor. Arbeitsbedingungen Die Produktion von Mobiltelefonen steht auf Grund der Arbeitsbedingungen in den Herstellerbetrieben in der Kritik (siehe z. B. Foxconn). Um die Probleme in der Herstellung von Mobiltelefonen zu beseitigen, ist eine transparente Lieferkette der Konfliktrohstoffe und der beteiligten Unternehmen notwendig. Diese kann zur Zeit jedoch kaum gewährleistet werden. Mit dem Fairphone und dem Shiftphone gibt es Mobiltelefone, deren Produzenten es sich zum Ziel gesetzt haben, diese Probleme anzugehen. Zubehör Handytasche und Handyhülle Eine Handytasche ist eine Tasche (eng. Wallet Case) zum Aufbewahren von Handys. Wie eine Hülle kann auch sie zum Schutz vor Beschädigungen wie zum Beispiel vor Stürzen, Hitze, Kälte, Feuchtigkeit usw. verwenden. Weiteres Ziel kann es sein ein bestimmtes Design (Skins) oder Farben anzeigen zu lassen. Meist wird Kunststoff, Kunstleder oder Textilien als Material für Handytaschen verwendet. Handytaschen gibt es in Folgenden Varianten: Hard- und Softcase: Beide Varianten beziehen sich auf eine Abdeckung des Smartphones. Das Hardcase verwendet häufig härtere Materialien wie Plastik, während das Softcase in der Regel Silikon verwendet. Bumper: Dieses Zubehör liegt über dem Rahmen des Handys und dient so als eine Art Stoßstange. Flip-Case und Etui: Beide Varianten sind genau auf die Größe des Smartphones abgestimmt. Sie umhüllen das ganze Gerät und lassen sich wie ein Buch oder ein Portemonnaie öffnen. Slim-Case: Das Slim-Case schmiegt sich eng an das Handy an und besteht in der Regel aus Neopren. Backcover: Das Backcover konzentriert sich auf die Rückseite des Handys. Hybrid-Cover: Normalerweise besteht ein Hybrid-Cover aus zwei Teilen, wobei die innere Hülle aus Silikon gefertigt ist. Diese wird in das Außencover eingeklemmt. Bekannt ist das Hybrid-Cover auch als Outdoor-Hülle oder Outdoor-Cover. Handybeutel und Handysocken: Taschen, in denen sich die Handys hineinstecken lassen und wieder herausgenommen werden können. Armtaschen: Diese Taschen werden über den Oberarm gebunden. Sie sind für den Outdoor-Bereich, wie zum Beispiel für Fitness und Sport, gedacht. Kabelloses Headset Durch eine Funkverbindung, basierend auf Bluetooth, kann auf ein Kabel für das Headset verzichtet werden. Schutzfolie Eine Schutzfolie ist eine Folie, die den Bildschirm vor Beschädigungen wie Rissen und Verschmutzungen (Fett, Staub usw.) schützen soll. Auch Panzerglas oder Flüssigglas kann als ein Display-Schutz verwendet werden. Eingabestift Ein Eingabestift (englisch Stylus oder Touchpen) ist ein Stift, der zur Bedienung von Touchscreens verwendet wird. Durch den Eingabestift ist eine präzisere Bedienung als mit den Fingern möglich, da nur die dünne Spitze den Bildschirm berührt. Des Weiteren wird so die Verschmutzung des Bildschirms durch Fingerabdrücke verhindert. Halterung Es gibt Halterungen für Fahrzeuge oder Fotografie. So kann das Handy als Radio oder Navigationssystem im Auto platziert werden. Es lassen sich Bildaufnahmen mit einem Stativ oder einem Selfie-Stick machen. Diebstahl Risiken Mobiltelefone sind beliebte Diebstahlobjekte, wobei nicht nur eingeschaltete, angemeldete Mobiltelefone interessant sind (da der Dieb mit ihnen ohne eigene Kosten telefonieren könnte), sondern auch ausgeschaltete. Die PIN auf der SIM-Karte sichert nicht das Telefon, die SIM-Karte kann jederzeit problemlos entfernt werden. Handelt es sich um ein nicht auf einen bestimmten Netzbetreiber zugelassenes Gerät, braucht lediglich eine neue SIM-Karte eingelegt zu werden, um das Gerät zu nutzen oder auf dem grauen Markt als vollwertig anbieten zu können. Um das zu verhindern, empfiehlt sich das Sichern des Gerätes zum Beispiel durch einen sogenannten Sperrcode oder auch Sicherheitscode. Gemäß seiner jeweiligen Einstellung wird das Gerät dann nach einer bestimmten Inaktivitätszeit oder nach dem Ausschalten deaktiviert und ist nur mit Hilfe des Codes wieder zu aktivieren. Es gibt inzwischen weitere Formen des Diebstahlsschutzes. Bei Samsung kann mit uTrack nach Diebstahl oder Verlust des Mobiltelefons, wenn ein Dieb oder Finder eine andere SIM-Karte einlegt, eine SMS mit der „neuen“ Nummer der eingelegten SIM-Karte an eine vorher eingegebene Telefonnummer gesendet werden. Google bietet eine weitgehend vollständige Sicherung der Daten in der Cloud, eine Ortung des Mobiltelefons und im Notfall auch eine Sperrung bis hin zur ferngesteuerten Löschung der Daten an. So kann dann der rechtmäßige Eigentümer selbst die GSM-Ortung durchführen. Bei Diebstahl eines Handys (mit Karte) empfiehlt sich also zweierlei: Beantragung der Sperrung der Nummer (abhängig von der SIM-Karte: Angabe der eigenen Nummer und eines evtl. vereinbarten Passwortes) Registrierung des gesamten Gerätes über die Angabe der geräteabhängigen IMEI-Nummer (oft auf dem Kaufvertrag oder der Originalverpackung angegeben. Die IMEI-Nummer steht auf dem Typenschild und kann auch durch Eingabe von *#06# angezeigt werden). Trotz der vorhandenen technischen Möglichkeit sperren jedoch nur wenige Netzanbieter Geräte anhand der IMEI-Nummer. Auch die Strafanzeige bei der Polizei verspricht aufgrund der Vielzahl der Fälle inzwischen wenig Aussicht auf Erfolg. Eine einfache Lösung zum Schutz vor Verlust ist die Verwendung eines zweiten, sehr kleinen, batteriebetriebenen Funkgeräts geringer Sendeleistung (1 mW), das gefahrlos ohne Belastung durch Strahlen und ohne jede Bedienung ein akustisches Signal abgibt, wenn der Träger des Mobiltelefons dieses liegen lässt und sich entfernt. Derartige Geräte verwenden üblicherweise Bluetooth. Versicherung Gegen den Verlust und die Beschädigung eines Mobiltelefons werden Handyversicherungen angeboten. Die Versicherungsbedingungen unterscheiden sich mitunter jedoch erheblich; Diebstahl, Schäden durch Sturz und Feuchtigkeit können enthalten sein. Wird das Mobiltelefon zuhause gestohlen, kann die Hausratversicherung Kosten des Gerätes in bestimmten Fällen ersetzen. Aber auch hier müssen verschiedene Bedingungen erfüllt sein. So kommt die Hausratversicherung nur für den Diebstahl auf, wenn durch Einbruchsspuren an Fenstern oder Türen ein gewaltsames Eindringen von außen nachgewiesen wird. Von den meisten dieser Versicherungspolicen wird abgeraten, da sie meist teuer sind bezogen auf den gebotenen Versicherungsumfang. Darüber hinaus können Besitzer einer Handyversicherung bei einem Diebstahl nur äußerst selten auf eine Kostenerstattung des Versicherers hoffen. Darauf weisen die für Versicherungen zuständigen Marktwächter der Verbraucherzentrale Hamburg hin. Grund sind die hohen Anforderungen der Versicherer daran, wie Verbraucher ihr Handy bei sich tragen müssen. Eine für Deutschland repräsentative Forsa-Umfrage im Auftrag des Marktwächters Finanzen hat ergeben, dass 77 Prozent aller befragten Handybesitzer ihr Mobiltelefon im öffentlichen Raum so verwahren, dass die Versicherung bei Diebstahl nicht zahlen müsste. SIM-Lock und Netlock SIM-Lock und Netlock sind Verfahren, mit dem Mobiltelefone an eine SIM-Karte, einen Netzbetreiber oder an eine bestimmte Vertragsform gebunden werden. Ein mit SIM-Lock versehenes Mobiltelefon ist nur mit der beim Kauf des Telefons mitgelieferten SIM-Karte verwendbar. Das Mobiltelefon kann somit mit keiner anderen SIM-Karte, auch nicht mit einer SIM-Karte desselben Netzbetreibers, betrieben werden. War SIM-Lock in Deutschland vor allem bei Prepaid-Paketen üblich, werden mittlerweile immer häufiger auch subventionierte Mobiltelefone mit Vertragsbindung gesperrt, dann allerdings mit dem kundenfreundlicheren Netlock. Ein mit Netlock gesperrtes Telefon kann zumindest mit anderen SIM-Karten desselben Netzbetreibers benutzt werden. Umgangssprachlich wird auch bei Netlock jeweils von Simlock gesprochen. In der Schweiz werden vom Betreiber als „SIM-Lock-geschützt“ bezeichnete Geräte nur mit einem Netlock versehen; andere SIM-Karten desselben Netzbetreibers funktionieren darin auch. Der Paketanbieter beabsichtigt mit der ganzen oder teilweisen Sperrung des subventionierten Mobiltelefons, dass der Kunde nicht bei der Konkurrenz „fremdtelefoniert“. Nur so kann er sicherstellen, dass sich die Subventionen bei den Gerätekosten durch Gesprächseinnahmen wieder ausgleichen. Üblicherweise kann der SIM-Lock und der Netlock nach Ablauf von zwei Jahren kostenlos oder innerhalb dieser Frist gegen Zahlung einer Gebühr um 100 Euro deaktiviert werden. Die Entsperrung erfolgt in der Regel durch den Benutzer selbst mittels Unlock-Code. Daneben existieren im World Wide Web Anleitungen und Software zum selbständigen Entfernen von SIM- und Netzsperren. Oft wird ein ein- oder kleiner zweistelliger Betrag dafür verlangt. Mit zunehmender Implementierung von verbesserten Sicherheitsmechanismen in den Mobilfunkgeräten wird für die Entfernung des SIM-Locks oft spezielles Equipment benötigt. Auch mit dünnen Zwischenkarten kann ein SIM- oder NET-Lock umgangen werden; so wird das Gerät unangetastet gelassen und man kann es dennoch mit Fremd(netz)-SIM-Karten nutzen, weil die Zwischenkarten die Netz-/Betreiberkennungen der eingelegten SIM-Karte zur Laufzeit manipulieren. In manchen EU-Ländern ist das eigenmächtige Entsperren illegal. In Österreich ist das Entsperren in Handy-Läden für fünf bis zehn Euro möglich und erlaubt. Mobiltelefontarife Für die Nutzung bestimmter Dienstleistungen im Mobilfunk fallen Gebühren an, die vom Anbieter („Provider“) geschaffene Kostenregelung für diese bezeichnet man als „Mobiltelefontarif“. Unterschiede bei Mobiltelefontarifen gibt es hauptsächlich in der Art der kostenpflichtigen Leistungen, den Preisen und der Abrechnungsart. Siehe auch Roaming für Nutzung der Mobilfunknetze im Ausland. Kostenpflichtige Leistungen Das Verschicken von Kurzmitteilungen und das Telefonieren sowie alle anderen Dienste, bei denen Daten über das Mobilfunknetz versandt werden, werden in der Regel in Rechnung gestellt. Ausnahmen bilden meistens die Abfrage des Kontostandes, oft – aber nicht immer – auch das Abrufen der Mobilbox. Preise Der Preis orientiert sich im Allgemeinen an der Art (und Dauer) der Leistung und den verwendeten Netzen, gelegentlich auch der Tageszeit/dem Wochentag. Art der Leistung: Anrufe: Preis von der Dauer/Taktung (Abrechnung pro Sekunde, Minute usw.) abhängig. Text-/und Datensendungen (SMS, MMS usw.): Preis von Größe abhängig, aber nicht unbedingt proportional ansteigend (d. h. eine MMS fasst ein Vielfaches an Daten als eine SMS, ist aber nicht um den gleichen Faktor teurer) Verwendete Netze: Generell sind Gespräche im Netz des eigenen Anbieters günstiger als jene von Fremdanbietern oder ins Festnetz; Auslandsgespräche sind generell teurer als Inlandtelefonate. Tageszeit/Wochentag: Abends und nachts sind die Leistungen meist günstiger als am Tage, feiertags sind die Kosten geringer als werktags. Abrechnungsart Es werden zwei Hauptarten der Abrechnung unterschieden: Beim Postpaid, umgangssprachlich häufig auch „Mobiltelefonvertrag“ genannt, werden die Kosten für die Leistungen nachträglich im Rahmen einer festen Vertragsbindung einbezogen (die Mindestvertragsdauer beträgt im Normalfall zwischen 18 und 24 Monate). Oft enthalten sind Grundgebühren und Mindestumsätze. Allerdings existieren auch Postpaid-Anbieter ohne zeitliche Vertragsbindung. Auch erhältlich sind Spezialtarife mit pauschaler Abrechnung, die oft werbewirksam als Flatrates bezeichnet werden. Beim Prepaid wird jede Leistung direkt von einem aufladbaren Guthabenkonto abgebucht, Grundgebühren und Mindestumsätze kommen in Ausnahmefällen vor. Im Idealfall befindet sich das Guthaben auf der SIM-Karte; wenn diese erschöpft ist, können außer Notrufnummern keine anderen Teilnehmer angerufen werden. Zunehmend stellen die Provider auf Tarife um, die ein Aufladen des Guthabens per Abbuchung vom Konto des Kunden erlauben. Zeitweise war durch die AGB oder durch Zustimmung des Kunden hierzu ein mehrfaches automatisches Abbuchen ohne weitere Rückfrage ermöglicht. Mittlerweile haben Gerichtsurteile dies als überraschende Klausel abgelehnt und auf das maximal einmalige automatische Abbuchen eines Festbetrags beschränkt. Netzbetreiber Im deutschen Sprachraum sowie in Ländern mit größeren deutschsprachigen Bevölkerungsteilen sind verschiedene Netzbetreiber vertreten: Deutschland Netzbetreiber in Deutschland sind: Deutsche Telekom, Vodafone (durch Aufkauf von Mannesmann Mobilfunk), Telefónica (O2). Daneben gibt es Mobile Virtual Network Enabler (MVNEs), welche auf den Netzen der Netzanbieter aufbauend technische Grunddienste und Infrastruktur bieten für „virtuelle Netzbetreiber“ (Mobile Virtual Network Operators, MVNOs), die Endkunden Mobilfunkleistungen verkaufen, ohne eigene Netze zu betreiben. Ein virtueller Netzbetreiber kann sich auf ein Basisnetz beschränken (häufig als Tochterfirma oder Vertriebsmarke eines Netzbetreibers) oder als sogenannte unabhängige Mobiltelefonkette agieren und mehrere/alle Basisnetze verwenden/dem Kunden anbieten.Insbesondere in England, Deutschland und in der Schweiz sind Vertreter dieser Gattung zu finden. Durch die Möglichkeit der Rufnummernmitnahme (Portierung) kann der verwendete (evtl. virtuelle) Netzbetreiber nicht mehr aus der Vorwahl abgeleitet werden. Auf Druck von Verbraucherschützern und geschädigten Mobilfunknutzern bieten die Anbieter Tarife (Postpaid) an, die eine Kostenbegrenzung enthalten. Außerdem können Anrufziele blockiert werden, sowie eine Sperrung für Mehrwertnummern eingerichtet werden (in Deutschland: 0190-, 0900-, 0137-, 0138-Nummern und 118er-Auskunftsdienste). Weitere Schutzmöglichkeiten bieten unter anderem die Sperrung von Auslandstelefonaten, Premium-SMS, MMS-Dienste, GPRS-Dienste, WAP-Gateway, M-pay und Voucher-Aufladungen. Österreich Die Mobilfunk Infrastruktur von Österreich wird durch folgende Anbietern bereitgestellt: A1 Telekom Austria (Eigentümer: Telekom Austria, seit Juli 2006 auch mit Billigmarke bob) Magenta Telekom (Eigentümer: Deutsche Telekom (seit 2006 Tochter von T-Mobile)) 3 (CK Hutchison Holdings) (Übernahme von Orange (bis 20. September 2008 One) durch Drei am 3. Januar 2013) Darüber hinaus treten auch Mobilfunkanbieter auf dem österreichischen Markt als Virtuelle Anbieter, sogenannte MVNOs, auf. Schweiz Folgende Unternehmen sind GSM-Konzessionäre: Salt Mobile − Salt SA/AG, Lausanne Sunrise Communications − Sunrise Communications AG, Zürich Swisscom − Swisscom (Schweiz) AG, Bern Belgien BASE, Mobistar, Proximus Luxemburg Post Luxembourg (früher: LuxGSM), Orange (früher: Voxmobile), Tango Softwarebezogene Gefahren Wie alle Geräte mit integriertem Computer ist auch ein Mobilfunktelefon nicht frei von Softwarefehlern. Bislang sind einige wenige Handyviren für auf Symbian basierende Geräte bekannt. Viren, die in der Lage sind, Mobiltelefone lahmzulegen, basieren meist auf Softwarefehlern. Gefahren bestehen vor allem in Form von Schadprogrammen, die sich in Dienstemitteilungen unter falschen Namen ausgeben oder durch das sogenannte Bluejacking, das Fehler in der Bluetooth-Implementierung ausnutzt. Es empfiehlt sich, Bluetooth nur bei Bedarf einzuschalten oder sich zumindest für andere unsichtbar zu machen. Unerwartete Bluetooth-Nachrichten sollten abgewiesen werden. Diskussionen zu Gesundheitsgefahren Da Mobiltelefone aktiv elektromagnetische Wellen aussenden, sind die Auswirkungen dieser Wellen im Rahmen der elektromagnetischen Umweltverträglichkeit zu prüfen. Es gibt Menschen, die beim Telefonieren subjektiv unterschiedliche Symptome wahrnehmen (von Wärme bis hin zu leichtem Druck oder Kopfschmerzen). Unklar ist, ob die Symptome vom mechanischen Anlegen des Hörers, und der deshalb lokal verringerten Kühlung der Hautoberfläche, dem Nocebo-Effekt oder objektiv von der elektromagnetischen Beaufschlagung des Gewebes verursacht werden. In verblindeten Experimenten konnte die Wahrnehmung von durch Mobiltelefonen ausgelösten Symptomen nicht bestätigt werden. Auch im Akku eines Mobiltelefons entsteht beim Betrieb Wärme, die sich gegebenenfalls durch Wärmeleitung auf das Gewebe überträgt. Studien zur möglichen Krebsentstehung Umstritten und nicht vollständig geklärt ist, welchen Einfluss die Wirkungen von Mobilfunkstrahlung auf die Entstehung von Krebs haben. Eine 2006 im British Medical Journal publizierte Studie zeigte, dass Telefonieren mit dem Mobiltelefon – auch nach einer längeren Nutzungsdauer (ca. zehn Jahre) – nicht das Risiko erhöht, an einem Hirntumor zu erkranken. Nach Auswertung der Daten von insgesamt 2682 Personen, davon 966 Tumorpatienten, kamen die Forscher zu dem Schluss, dass Mobilfunkstrahlung als Risikofaktor zumindest für die in der Studie betrachteten Hirntumore vom Gliom-Typ ausscheide. Dieser Mangel im Studiendesign veranlasste Professor Lennart Hardell (Universitätskrankenhaus Örebro) und Professor Kjell Hansson Mild (Universität Umeå) zu einer Metastudie, bei der sie insgesamt 11 Studien neu bewerteten. Mit dem Ergebnis, dass bereits bei einer täglichen Nutzung des Mobiltelefons von einer Stunde über einen Zeitraum von zehn Jahren die Wahrscheinlichkeit, an Gehirntumor oder an Akustikusneurinom zu erkranken um das Dreifache ansteigt (und um das Fünffache an der Seite, an der das Mobiltelefon genutzt wird). Da für die Entwicklung von Gehirntumoren zumindest zehn Jahre vorausgesetzt wird, rechneten Hansson und Mild im Jahre 2007 mit einem Ansteigen in naher Zukunft. Nach einer am 24. März 2012 im British Medical Journal veröffentlichten Studie blieb der erwartete Anstieg aus: Während die Anzahl der Mobiltelefonnutzer stark zunahm, blieb die Rate der Tumorerkrankungen etwa gleich, auch wenn man den von Hannson und Mild geforderten Abstand von 10 oder mehr Jahren zwischen Telefonnutzung und Erkrankungsbeginn berücksichtigte. Auswertungen von Hardell et al. (2013) unter Berücksichtigung von Langzeitnutzung (> 20 Jahre) zeigen eine mit der Nutzungsdauer korrelierende Häufung speziell (gutartiger) Akustikusneurinome. Ein Übersichtsartikel von 2015 in Reviews on Environmental Health stellt zahlreiche Befunde zu physiologischen Wirkungen von Mikrowellenstrahlung – Krebsentstehung und anderen – unterhalb merklicher Erwärmung zusammen und diskutiert insbesondere einen bestimmten Wirkmechanismus, die voltage-gated calcium channel activation. Einschätzung der WHO Die WHO folgt in einer Veröffentlichung aus dem Jahr 2011 der Einschätzung der Internationalen Agentur für Krebsforschung, die Handystrahlung als „möglicherweise krebserregend“ einstuft. Eine Studie aus dem Jahr 2006 kommt zu dem Schluss, dass es genetische bedingte Unterschiede gibt, was die Empfindlichkeit von Zellen auf Strahlung durch Mobiltelefone betrifft. Sonstige diskutierte Auswirkungen Ionisierung Die Trägerfrequenzen von 900 MHz und 1800/1900 MHz liegen weit unterhalb der Frequenzen, bei denen es zu einer Ionisation von Molekülen kommen kann. Dazu kann es – wie beim photoelektrischen Effekt – erst bei etwa millionenfach höheren Frequenzen von mindestens 800 THz = 800.000.000 MHz kommen. Schädigungen ähnlich jenen durch UV-Strahlung oder Radioaktivität (Sonnenbrand, Krebs) durch Ionisierung können deshalb ausgeschlossen werden. Auswirkungen auf die Blut-Hirn-Schranke In wissenschaftlichen Studien seit Beginn der 1990er Jahre, insbesondere aus dem Arbeitskreis des schwedischen Neurochirurgen Leif G. Salford an der Universität Lund, wurden Ergebnisse erzielt, die eine Öffnung der Blut-Hirn-Schranke im nicht-thermischen Bereich, nach der Exposition mit GSM-Frequenzen beschreiben. Andere Arbeitsgruppen können die Ergebnisse von Salford nicht bestätigen. Auch wird von anderen Arbeitskreisen insbesondere die angewandte Methodik in Frage gestellt. Herzschrittmacher Die Studie „Schutz von Personen mit Implantaten und Körperhilfen in elektromagnetischen Feldern des Mobilfunks, UMTS, DECT, Powerline und Induktionsfunkanlagen“ im Auftrag des damaligen deutschen Bundesministeriums für Wirtschaft und Arbeit aus dem Jahre 2005 kam zu dem Ergebnis, dass die Störung eines Herzschrittmachers durch 0,9 GHz- und 1,8 GHz-GSM-Mobilfunkstationen sowie 2,1 GHz-UMTS-Mobilfunkstationen bei Einhaltung der Referenzgrenzwerte ausgeschlossen werden kann. Funkwellenexpositionen von Mobiltelefonen sowohl im 1,8 GHz-GSM-Bereich und UMTS-Frequenzbereich (2,1 GHz-Frequenzband) verursachen keine Störungen bei Herzschrittmachern. Selbes gilt auch für den Betrieb von GSM-Telefonen im 0,9 GHz-Band, wenn sie zum Telefonieren an den Kopf gehalten werden. Wurden bei der Studie GSM-Telefone, die im 0,9 GHz-Band senden, in einem Abstand von 5,5 cm zum Herzschrittmacher vor die Brust gehalten, so traten bei 7 % der Herzschrittmacher Störungen auf. Dabei handelte es sich ausschließlich um Herzschrittmacher älteren Datums. Fruchtbarkeit Weiterhin wird vermutet, die Strahlung der Mobiltelefone könne, wenn sie in der Hosentasche oder am Gürtel getragen werden, Männer unfruchtbar machen, da Spermien durch die Strahlung bewegungsunfähig werden könnten. Die Messungen beruhen jedoch teilweise nur auf ungenauen, unwissenschaftlichen Methoden, teilweise aber auch auf divergierenden Untersuchungen mehrerer Universitäten, die aber je nach Studien-Design zu unterschiedlichen Ergebnissen kommen und häufig zweifelhaft sind. Empfehlungen des Bundesamts für Strahlenschutz Das Bundesamt für Strahlenschutz (BfS) hält "nach dem derzeitigen wissenschaftlichen Kenntnisstand [..] die international festgelegten Höchstwerte [für ausreichend], um vor nachgewiesenen Gesundheitsrisiken zu schützen." Zum Schutz vor "Unsicherheiten in der Risikobewertung" empfiehlt es trotzdem die Exposition durch elektromagnetische Felder vorsorglich gering zu halten. Es empfiehlt die Nutzung von Headsets, SMS, Mobiltelefone mit geringen SAR-Werten, Festnetz-Telefonie, kurze Telefonate und das Vermeiden von Gesprächen mit schlechtem Empfang. Im Jahr 2008 sprach es sich „gegen die Vermarktung von Kinderhandys aus, selbst wenn diese durch den Blauen Engel gekennzeichnet sind.“ Diese Empfehlung findet sich allerdings nicht mehr auf der Website des BfS. Urteil des Gerichts in Ivrea Am 30. März 2017 erging im italienischen Ivrea der Beschluss eines Arbeitsgerichtes unter Vorsitz von Dr. Luca Fadda, in dem erstmals eine Tumorerkrankung (Akustikusneurinom) als Folge häufigen beruflichen Mobiltelefontelefonierens als Berufskrankheit anerkannt wurde. Geklagt hatte der 57-jährige Roberto Romeo, der als Angestellter der Telecom Italia dienstlich 15 Jahre lang regelmäßig mit einem Mobiltelefon telefonierte. Es handelt sich hier um ein Urteil einer untersten arbeitsgerichtlichen Instanz in Italien. Literatur Frauke Behrendt: Handymusik – Klangkunst und »mobile devices«. epOs-Music Osnabrück 2005, ISBN 3-923486-03-0. Günter Burkart: Handymania. Wie das Mobiltelefon unser Leben verändert hat. Campus, Frankfurt am Main 2007, ISBN 978-3-593-38351-4. Nicola Döring: Mobilkommunikation. Psychologische Nutzungs- und Wirkungsdimensionen. In: B. Batinic, M. Appel (Hrsg.): Medienpsychologie. Springer, Heidelberg 2008, ISBN 978-3-540-46894-3, S. 219–238. Matthias Morgenroth: Anatomie des Handy-Menschen. Ein Seelen-Selfie. Echter-Verlag, Würzburg 2020, ISBN 978-3-429-05508-0. Weblinks Einzelnachweise Telefon Elektromagnetische Störquelle Pseudoanglizismus
Q17517
764.608297
42997
https://de.wikipedia.org/wiki/Ziel
Ziel
Ein Ziel (, Neutrum; ; ) ist „etwas, worauf jemandes Handeln, Tun o. Ä. ganz bewusst gerichtet ist, was jemand als Sinn und Zweck, angestrebtes Ergebnis seines Handelns, Tuns zu erreichen sucht“. Der Mensch sieht sich in seinem Leben stets mit Zielen konfrontiert, seien sie selbst gesetzt oder von anderen vorgegeben. Dabei kommen Ziele in sämtlichen Lebensbereichen vor, so etwa in der Bildung, Politik, im Sport oder in der Wirtschaft. In der Bildung gibt es Bildungsziele oder Lernziele, im Sport Leistungsziele, die Politik setzt sich beispielsweise wirtschaftspolitische Ziele (wie das Magische Viereck) oder Ziele für nachhaltige Entwicklung. In der Psychologie ist das Ziel das erstrebenswerte, vorgestellte Resultat einer Tätigkeit. Das Ziel wird als Anlass für eine Handlung verstanden und deshalb als Zweck- oder Finalursache () bezeichnet. Zweck wird in diesem Zusammenhang als Endziel oder Finalursache verstanden. Final bedeutet in diesem Sinne zielgerichtet, zielführend oder zielorientiert. Zieldimensionen Zieldimensionen sind Zielinhalt, Zielausmaß und der Zielhorizont. Mit dem Zielinhalt wird eine sachliche Festlegung des angestrebten Zustands erreicht (Sachziel), das Zielausmaß ist die Ausprägung des Ziels (Formalziel) wie etwa ein Maximalziel (Weltmeister werden, Gewinnmaximierung anstreben) oder ein Minimalziel (Erreichen des Viertelfinales, Minimierung der Herstellungskosten). Der Zielhorizont gibt an, in welchem Zeitraum ein Ziel erreicht werden soll. Dabei gibt es kurzfristige Ziele (Zielerreichung <1 Jahr: Erledigung einer Arbeitsaufgabe), mittelfristige Ziele (>1 Jahr bis <3 Jahre: Investitionsplanungen) und langfristige Ziele (>3 Jahre: strategische Planung). Beispielsweise erfüllt die Zielformulierung im Unternehmen „Wir wollen unseren Gewinn (Zielinhalt) innerhalb eines Geschäftsjahres (Zeitbezug) um 10 % steigern (Ausmaß)“ diese Zieldimensionen. Zielformulierungen dürfen nicht zu abstrakt und müssen operabel sein, damit sich entsprechende Handlungen daran ausrichten können. Arten Je nach dem, welches Wirtschaftssubjekt sich Ziele setzt oder vorgegeben bekommt, unterscheidet man persönliche Ziele (Privatpersonen, Privathaushalte), Unternehmensziele (die Gewinnerzielungsabsicht von Unternehmen oder sonstigen Personenvereinigungen) oder Staatsziele (der Staat und seine Untergliederungen). Die Ziele der einzelnen Wirtschaftssubjekte können gegensätzlich sein, denn beispielsweise strebt der Arbeitnehmer ein möglichst hohes Arbeitsentgelt an, der Arbeitgeber möglichst niedrige Personalkosten; der Privathaushalt zielt auf Nutzenmaximierung ab, die Unternehmen setzen auf Gewinnmaximierung. Wer hier seine Ziele durchsetzen kann, hängt meist von dessen Verhandlungsmacht oder Marktmacht ab. Da Ziele die Zukunft betreffen, sind sie Gegenstand und Inhalt der Planung und Budgetierung, letztere haben die gesteckten Ziele zu berücksichtigen und müssen Handlungsschritte zur Zielerreichung beinhalten. Die zu treffenden Entscheidungen müssen „zielorientiert“ („zielkonform“) sein. Der Gesetzeszweck () stellt Ziel und Zweck einer Rechtsnorm dar, welche der Gesetzgeber in Form eines gesetzlichen Tatbestands () definiert. Alle Normadressaten müssen sich – wollen sie sich nicht rechtswidrig verhalten – mit ihren gesetzeskonformen Rechtshandlungen an diesen Normen ausrichten. Zu unterscheiden ist zudem danach, ob sich ein Wirtschaftssubjekt Ziele selbst setzt (Eigenziele im Privathaushalt) oder durch Gremien vorgegeben bekommt (Zielvorgaben im Unternehmen). Persönliche Ziele sind meist Eigenziele, bei denen die Zielerfüllung von intrinsischer Motivation geprägt ist, während Zielvorgaben der extrinsischen Motivation unterliegen. Mehrere Ziele Üblich ist, dass ein Wirtschaftssubjekt mehrere Ziele gleichzeitig verfolgt. Da sich diese Ziele teilweise gegenseitig widersprechen können, muss die Verträglichkeit mehrerer Ziele geprüft werden. Unternehmensziele sind beispielsweise neben Gewinnmaximierung auch Rentabilität und Liquidität. Mehrere, gleichberechtigte Ziele treten dabei in eine Zielbeziehung. Der Betriebswirt Edmund Heinen befasste sich 1966 mit den Zielsystemen in Unternehmen, worunter er mindestens zwei Unternehmensziele verstand, die in Zielbeziehungen zueinander stehen. Beinhaltet das Zielsystem eines Wirtschaftssubjektes mehrere gleichrangige Ziele, so ist es für die Entscheidungsfindung wesentlich, ob die Ziele zueinander im Verhältnis totaler oder partieller Komplementarität oder Konkurrenz stehen. Hauptziele können in mathematischen Entscheidungsmodellen als „begrenzte Ziele“ in Form von Nebenbedingungen angesetzt werden. In den Wirtschaftswissenschaften spielen bei derartigen Zielsystemen diese Nebenbedingungen eine Rolle. Um Zielkonflikte zwischen mindestens zwei miteinander konkurrierenden Zielen zu vermeiden, sind diese Ziele in eine gegenseitige Rangordnung (Zielhierarchie) zu bringen, die aus einem Hauptziel und untergeordneten Nebenzielen (Nebenbedingungen) besteht. Dadurch müssen konkurrierende Ziele nicht mehr gleichrangig erfüllt werden, sondern zunächst ist das als Hauptziel identifizierte Ziel zu erfüllen. Die Nebenbedingungen schränken die Erfüllung des Hauptziels möglicherweise ein. In der Betriebswirtschaftslehre gelten die übrigen Ziele als Nebenbedingungen, die nicht mit Priorität zu erfüllen, aber zu beachten sind. Sie begrenzen die Erfüllung des Hauptziels; der Unternehmer plant nur den Maximalgewinn, der sich unter Beachtung der Nebenbedingungen ergibt. Ziel aller unternehmerischen Entscheidungen ist Heinz Kußmaul zufolge die langfristige Gewinnmaximierung unter Nebenbedingungen. Zielharmonie liegt vor, wenn mehrere Ziele gleichzeitig und im selben Umfang erfüllt werden können. Einige Ziele sind voneinander abhängig, so dass mit der Erfüllung eines Ziels andere Ziele weitgehend mit erfüllt werden. Wege zum Ziel Die gesellschaftlichen und sozialen Verhältnisse verlaufen stets unter vielfältigen Zielvorstellungen. So zielt der Verbraucher beim Wareneinkauf darauf ab, höchste Produktqualität und größtmöglichen Nutzen gegen einen möglichst geringen Kaufpreis zu erreichen, während der Verkäufer das Gegenteil anstrebt. Diese unterschiedlichen Interessenlagen ergeben sich aus den gegensätzlichen Individualzielen der Vertragspartner; auch hier entscheidet die Verhandlungsmacht darüber, wer sein Ziel erfüllen kann. Ausgangspunkt ist die Zielfindung, die sich mit der Ermittlung sinnvoller Ziele befasst, die unter Berücksichtigung des Umweltzustands (externe Einflüsse auf die Zielerreichung wie Wettbewerber) auch realisierbar sind. Der komplexe Prozess der Zielfindung erfordert die Erarbeitung langfristig angestrebter Ziele, Prüfung der Realisierungsmöglichkeiten sowie die Bestätigung oder Veränderung der Ziele. Die oberste Hierarchie-Ebene eines Unternehmens (Vorstand) übernimmt die strategische Zielfindung, die mittlere Ebene die taktische und die untere Ebene die operative Zielfindung. Dabei sind Umweltanalysen erforderlich wie der IST-Zustand des zielsuchenden Wirtschaftssubjekts (Finanzanalyse, Marktanalyse usw.), grobe Zielvorstellungen sind dabei hilfreich. Es sind Datenparameter zu berücksichtigen, die die Zielerfüllung beeinflussen (die Gewinnmaximierung wird durch Erhöhung der Ertragsteuern beeinträchtigt). Stehen die Ziele fest, erfolgt eine Zielformulierung, die die Zieldimensionen zu berücksichtigen hat. Umsetzung der Ziele Während Privatpersonen ihre selbst formulierten Ziele freiwillig zu erreichen versuchen, sind Unternehmen dazu gezwungen, ihre im Vorstand formulierten Ziele durch Zielvereinbarungen und Führungsziele an die Beschäftigten etwa mittels Führen durch Ziele () als transaktionale Führung weiterzugeben. Die Zielsetzung kann im Rahmen der Zielsetzungstheorie als Motivation verstanden werden, sich für die Erreichung der Ziele aktiv einzusetzen. Wesentliche Erfolgsfaktoren sind Verhalten, Intelligenz, Wissen, Kultur und Motivation, das gilt für persönliche Ziele, Unternehmensziele oder gesellschaftliche Ziele. Wird ein Ziel erreicht, spricht man vom Erfolg. Betriebswirtschaftslehre In der Betriebswirtschaftslehre wird zwischen Unternehmenszielen, beispielsweise ökonomischen, sozialen und ökologischen Zielen, und persönlichen Zielen der Mitarbeiter unterschieden. Unternehmensziele sind Maßstäbe, an denen unternehmerisches Handeln gemessen werden kann. In Unternehmen können Ziele (Ergebnisziele) durch Handlungen (Maßnahmen) und geeignete Verfahren verfolgt werden. Diese Handlungen als Mittel der Zielerreichung können wiederum als Ziele (Maßnahmen- oder Handlungsziele) formuliert werden, die durch andere Handlungen (Mittel) verfolgt werden können. Wenn Ziele durch solche Mittel-Zweck-Beziehungen miteinander verbunden werden, entsteht ein Zielsystem oder eine Zielhierarchie. Voraussetzung für die Bildung einer Zielhierarchie ist, dass das Hauptziel und das untergeordnete Ziel gleichgerichtet (komplementär) sind. Jedoch sind auch andere Zielbeziehungen möglich. Es kann vorkommen, dass Ziele sich gegenseitig ausschließen oder behindern. In diesem Fall spricht man von konfliktären bzw. konkurrierenden Zielen oder von einem Zielkonflikt. Außerdem können Ziele zueinander neutral bzw. indifferent sein. Psychologie In der kognitiven Motivationspsychologie wird der Begriff „Ziel“ für zwei verschiedene Sachverhalte verwendet. Erstens kann „Ziel“ einen positiven Endzustand bezeichnen, den ein Organismus durch sein Verhalten anstrebt. Zweitens kann „Ziel“ die subjektive Repräsentation eines solchen Zustands (eigentlich: eine Absicht) bezeichnen. Merkmale eines Ziels sind Zielinhalt, Zeitrahmen und Erfüllungsgrad. Ein Ziel ist etwas, was man möglicherweise schafft. Doch man muss viele Hindernisse bewältigen. Die Organisationspsychologie hat festgestellt, dass Menschen in Organisationen nicht nur auf äußere Reize reagieren. Sie erfüllen nicht nur das, was man von ihnen fordert, sondern sie handeln auch, um eigene, von ihnen selbst gesetzte Ziele zu erreichen. Die Zielpsychologie befasst sich mit den Auswirkungen, welche Merkmale von (subjektiv repräsentierten) Zielen auf die Leistung und auf das subjektive Wohlbefinden haben. Nebeneffekte der Zielsetzung Während bisherige Studien Performance- und Motivationssteigerung durch das Setzen spezifischer, herausfordernder gegenüber vager Ziele bestätigen, wurden nach Ordóñez/Maurice E. Schweitzer/Galinsky/Bazerman die negativen Nebeneffekte rigider Zielsetzung in der Literatur vernachlässigt. Ein zu enger Zielfokus macht blind für bedeutende Fragen, die mit dem eigentlichen Ziel nicht in Verbindung zu stehen scheinen. Dabei werden wichtige Ziele, die nicht durch das Zielsetzungssystem spezifiziert werden, ignoriert, Kurzzeitziele werden fokussiert und Langzeitziele außer Acht gelassen. Werden zu viele Ziele gestellt, konzentrieren sich Angestellte auf kurzfristige, leicht zu erreichende und leicht messbare Ziele. Qualität wird zugunsten von Quantität geopfert, da diese leichter messbar und herzustellen ist. Ein unangebrachter Zeitrahmen zur Zielerreichung (z. B. Quartalsabrechnungen) führt dazu, dass sich Angestellte auf kurzzeitige, schnell zu erreichende Ziele konzentrieren und dabei das Gesamtziel, beispielsweise die Gesamtgewinnmaximierung, vernachlässigen. Die Kurzzeitziele werden als Leistungsobergrenze statt Ausgangspunkt wahrgenommen. Werden zu hohe Ziele gesteckt, wirkt sich dies negativ auf die Motivation aus. Die Ziele werden aus Versagensangst gar nicht erst in Angriff genommen. Tritt tatsächlich Versagen ein, beeinflusst dieses die künftige Leistung negativ, da der Selbstwert durch Versagen gesenkt wird, welcher unmittelbar mit Verhalten, Leistung, Commitment und Engagement verknüpft ist. Besonders die Verfolgung finanziell motivierter Ziele beeinflusst zwischenmenschliches Verhalten. Verhandlungsführer wählen risikoreichere Verhandlungsstrategien, um ihre Ziele durchzusetzen und schließen ineffizientere Kompromisse, die gerade die Zielsetzung abdecken, nicht aber, obwohl dies möglich gewesen wäre, über sie hinausgehen. Des Weiteren werden zwei Arten unethischer Methoden motiviert: unethisches Verhalten, wie beispielsweise die Durchführung unnötiger Reparaturen, um Verkaufszahlen zu erreichen, oder aber verdrehte Leistungsangabe, wie beispielsweise die Angabe von fünf, statt der tatsächlich geleisteten zwei Arbeitsstunden. Katalysatoren dafür sind lasche Aufsichtsführung, finanzieller Anreiz und schwaches ethisches Commitment. Dabei besteht das Problem darin, dass unethische Methoden nicht nur durch Zielsetzung motiviert werden, sondern diese auch indirekt induzieren, durch systematische, subtile Veränderung der Unternehmenskultur. Die Angestellten werden zu Konkurrenten, Teamwork wird verhindert, Extra-Role-Behaviour wird eingestellt. Lernen und Kreativität werden durch Ziele mit finanziellem Anreiz untergraben. Da konservative Methoden belohnt werden, entfällt die Notwendigkeit für Innovation, das Ausprobieren von Alternativen und die Anwendung neuer Methoden, die eventuell nicht belohnt werden. Intrinsische Motivation wird durch extrinsische verdrängt (Verdrängungs- oder Korrumpierungseffekt). Philosophische Fragen Die Frage, ob nur der Mensch sich selbst Ziele setze oder ob auch die Natur Ziele verfolge (siehe Teleologie), war und ist Gegenstand philosophischer Überlegungen. Die überwiegende Mehrzahl der heutigen Philosophien hält Ziele nur im menschlichen Bewusstsein für existent (und möglicherweise bei einigen sehr hoch entwickelten Tieren); anderer Auffassung sind einige Religionen und zum Beispiel historizistische Philosophien, denen zufolge die Geschichte auf ein Ziel hinausläuft. Weiteres Problem ist die Frage, welche Ziele der Mensch sich setzen oder verfolgen solle; dies ist ein grundlegendes Problem der Ethik. Im Rahmen fatalistischer Auffassungen haben Ziele keine reale Aussicht auf Verwirklichung, da dem Menschen nicht die notwendigen freien Entscheidungsmöglichkeiten gegeben sind. Der Fatalismus geht somit einer Verabsolutierung der gegebenen Umstände einher. Dagegen kann im Subjektivismus und Egoismus eine Verabsolutierung der persönlichen Ziele ohne Beachtung der Mittel und der realen Gegebenheiten stattfinden. Der Glaube an unrealistische Ziele kann auch in Realitätsflucht (Eskapismus) enden. Persönliche Ziele Persönliche Ziele geben dem Alltag Struktur und Bedeutung. Nach Brunstein sind sie „Anliegen, Projekte und Bestrebungen, die eine Person in ihrem Alltag verfolgt und in Zukunft realisieren möchte“. In der Forschung gibt es verschiedene Ansätze, die sich mit dem Konstrukt „persönliche Ziele“ befasst haben. Dieses sind die Konstrukte current concerns (Eric Klinger), personal projects (Brian R. Little), life tasks (Nancy Cantor) und personal strivings (Robert A. Emmons). Little und Cantor betonen die Plastizität und Veränderbarkeit von persönlichen Zielen im jeweiligen Kontext. Sie betrachten persönliche Ziele als Ergebnis einer Interaktion von Personen (mit ihren Motiven und Werten) und der Umwelt (soziokulturelle und lebensaltersspezifische Situation). Klinger misst persönlichen Zielen mehr Bedeutung zu als der von persönlichen Anliegen. Persönliche Ziele führen laut Klinger zu einer konkreten Zielsetzung, die Bedeutung der persönlichen Ziele wird durch die Stärke der affektiven Bindung gegenüber der Zielsetzung ausgedrückt. Emmons dagegen siedelt sein Konzept der persönlichen Bestrebungen auf einer übergeordneten Ebene gegenüber konkreten Anliegen an. Ziele werden hier als überdauernde Persönlichkeitsmerkmale verstanden, was in seinem hierarchischen Modell zum Ausdruck kommt: die Motive einer Person beeinflussen ihre persönlichen Bestrebungen, diese bestimmen wiederum die konkreten Anliegen und Projekte und resultieren schließlich in ganz konkreten (zielgerichteten) Handlungen. Der Unterschied zwischen Motiven und Bestrebungen kommt hier zum Ausdruck: Während die Motive einer Person kognitiv keine große Rolle spielen, sind die persönlichen Bestrebungen kognitiv deutlich repräsentiert und individualisieren somit das Motivationssystem einer Person. Wichtige Befunde von Emmons sind: Das Erreichen von persönlichen Zielen steht in positivem Zusammenhang mit dem Wohlbefinden und Glücklichsein einer Person. Problematische persönliche Ziele, die sich durch Konflikthaftigkeit und Ambivalenz auszeichnen, wirken sich negativ auf das Wohlbefinden einer Person aus. Ergänzende Kriterien Kann der zukünftige Zustand zwar gewünscht, vorgestellt oder vorhergesagt, aber nicht durch eigenes Handeln erreicht oder der ablaufende Prozess nicht „beeinflusst“ werden, spricht man im Allgemeinen nicht von einem Ziel. Auch wird oft gefordert, dass der Mensch den zu erreichenden Zustand bewusst ausgewählt hat, um von einem Ziel sprechen zu können. Schließlich stellt man dem Ziel oft die zur Zielerreichung nötigen „Mittel“ gegenüber. Ein Ziel ist auch eine normative Aussage eines Entscheidungsträgers über einen zukünftigen Zustand, der durch eigenes aktives Handeln beeinflusst werden kann. Siehe auch SMART (Projektmanagement) Zielnorm Entscheidungstheorie Qualitätsplanung Entscheidung unter Sicherheit für Zielbeziehungen und Zielsysteme Anforderung als Abgrenzung von einem Ziel Weblinks Einzelnachweise Ethisches Prinzip Abstraktum Motivation Betriebswirtschaftslehre Volkswirtschaftslehre Philosophie
Q4503831
92.765982
3773883
https://de.wikipedia.org/wiki/Trier
Trier
Trier (, , ) ist eine kreisfreie Stadt an der Mittelmosel und mit Einwohnern () nach Mainz, Ludwigshafen am Rhein und Koblenz die viertgrößte des Landes Rheinland-Pfalz. Vor mehr als 2000 Jahren als gegründet, beansprucht Trier die älteste Stadt Deutschlands zu sein, da es diesen Status bereits in römischer Zeit innehatte. Unter dem Namen Treveris erlangte es in der Spätantike, zur Zeit der Tetrarchie nach 293, seine größte Bedeutung. Es war eine von nur vier Kaiserresidenzen, und der gesamte Nordwesten des Römischen Reichs wurde damals von Trier aus regiert. Zur Zeit des Römisch-deutschen Reichs war Trier Hauptstadt des gleichnamigen Kurfürstentums. Von 1815 bis 1945 gehörte es zu Preußen, seit 1946 zum neu gegründeten Rheinland-Pfalz. Triers Baudenkmäler aus römischer Zeit sind seit 1986 UNESCO-Welterbe: das Amphitheater, die Barbarathermen, die Kaiserthermen, die Konstantinbasilika, die Porta Nigra und die Römerbrücke. Zum Welterbe gehören außerdem zwei mittelalterliche Bauten: der im Kern noch aus spätrömischer Zeit stammende, romanische Trierer Dom und die frühgotische Liebfrauenkirche. Darüber hinaus umfasst die Liste der Kulturdenkmäler in Trier Orte, Gebäude und Monumente aus nahezu allen Epochen von der Frühgeschichte bis zum 21. Jahrhundert. Die Stadt ist Sitz der römisch-katholischen Diözese Trier, des ältesten Bistums nördlich der Alpen, und des evangelischen Kirchenkreises Trier. Darüber hinaus sind die Universität und die Hochschule Trier, die Verwaltungen des Landkreises Trier-Saarburg und der Verbandsgemeinde Trier-Land, die Aufsichts- und Dienstleistungsdirektion (ADD, bis 1999 Bezirksregierung Trier), mehrere Dienststellen des Landesuntersuchungsamtes und eine Dienststelle des Landesamtes für Soziales, Jugend und Versorgung Rheinland-Pfalz in Trier ansässig. Geographie Trier liegt in der Mitte einer Talweitung des mittleren Moseltals mit dem Hauptteil am rechten Ufer des Flusses. Bewaldete und zum Teil mit Weinbergen besetzte Hänge steigen zu den Hochflächen des Hunsrücks im Südosten und der Eifel im Nordwesten an. Die Grenze zum Großherzogtum Luxemburg (Wasserbillig) ist etwa 15 km von der Stadtmitte entfernt. Die nächsten größeren Städte sind Saarbrücken, etwa 80 Kilometer südöstlich, Koblenz, etwa 100 Kilometer nordöstlich, und Luxemburg-Stadt, etwa 50 Kilometer westlich von Trier. Trierer Schweiz ist eine ältere Bezeichnung für das Naherholungs- und Ausflugsgebiet der Stadt Trier links der Mosel. Um 1905 hatte die Trierer Schweiz eine Kapazität von etwa 1800 Gästen, die gleichzeitig in neun Gasthäusern in diesem Bereich hätten bewirtet werden können. Aufgrund des überwiegend ländlichen Umlands hat Trier ein – für seine Größe – relativ großes Einzugsgebiet, welches sich aus großen Teilen des Moseltals, unterem Saartals, der Eifel und dem Hunsrück zusammensetzt; siehe auch: Region Trier. Die Höhenlage von Trier erstreckt sich von 124 m. ü. NHN auf der Mosel kurz vor Schweich bis auf 427 m. ü. NHN auf dem Kuppensteiner Wild bei Trier-Irsch. Die Höhe der Innenstadt, gemessen am Hauptmarkt, beträgt 137 m. ü. NHN. Auf der rechten Moselseite liegen der Petrisberg und der Grüneberg, links der Mosel liegen Markusberg, Pulsberg, Kockelsberg, Steigenberg und Zoonenberg. Zuflüsse der Mosel sind von rechts der Mosel Kobenbach, Aulbach, Olewiger Bach, Aveler Bach, Gruberbach, Meierbach und Ruwer und von links der Mosel Zewenerbach, Eurenerbach, Sirzenicher Bach mit Gillenbach, Biewerbach, Kyll und Quintbach. Trier ist die Bezeichnung des Messtischblattes Nr. 6205 der topografischen Karte im Maßstab 1:25.000. Nachbargemeinden Die kreisfreie Stadt Trier ist vollständig vom Landkreis Trier-Saarburg umschlossen. In unmittelbarer Nähe, nur wenige Kilometer entfernt, befinden sich außerdem der Eifelkreis Bitburg-Prüm und der Landkreis Bernkastel-Wittlich. Nachbargemeinden sind im Uhrzeigersinn (beginnend im Norden): Schweich, Longuich, Kenn und nochmals Longuich im Bereich der Verbandsgemeinde Schweich an der Römischen Weinstraße Mertesdorf, Kasel, Waldrach, Morscheid, Korlingen und Gusterath im Bereich der Verbandsgemeinde Ruwer Hockweiler und Franzenheim im Bereich der Verbandsgemeinde Trier-Land Konz und Wasserliesch im Bereich der Verbandsgemeinde Konz Igel, Trierweiler, Aach, Newel, Kordel und Zemmer im Bereich der Verbandsgemeinde Trier-Land Stadtgliederung Das Stadtgebiet von Trier gliedert sich in 19 Ortsbezirke. In jedem Ortsbezirk gibt es einen aus 9 bis 15 Mitgliedern bestehenden Ortsbeirat und einen Ortsvorsteher. Die Ortsbeiräte sind zu wichtigen, den Ortsbezirk betreffenden Angelegenheiten anzuhören. Die endgültige Entscheidung über eine Maßnahme obliegt dem Stadtrat. Die Ortsbeiräte können auch im Rahmen eines ihnen zugeteilten Budgets über kleinere Maßnahmen im Ortsbezirk selbstständig entscheiden. Die Ortsbezirke beinhalten insgesamt 28 Stadtbezirke, von denen 10 in ihren Merkmalen identisch mit dem Ortsbezirk sind. Nach der kleinräumigen Gliederung gehören die Stadtbezirke zu den Planungsbereichen 1 bis 5 (Mitte, Nord, West, Ost und Süd) und sind ihrerseits wieder untergliedert in 100 statistische Bezirke. Ortsbezirke mit Fläche und Einwohnerzahl (Erst- und Zweitwohnsitz): Klima Die Stadt befindet sich in der gemäßigten Klimazone. Die durchschnittliche Jahrestemperatur beträgt 9,3 °C und die mittlere jährliche Niederschlagsmenge 774 Millimeter. Im Messzeitraum zwischen 1993 und 2013 lag die Jahresmitteltemperatur bei 10,09 °C. Der durchschnittliche Jahresniederschlag lag im selben Zeitraum bei 765,9 mm, hat sich also nicht merklich verändert. Die wärmsten Monate sind Juni bis August mit durchschnittlich 16,1 bis 17,8 °C und die kältesten Dezember bis Februar mit 0,6 bis 1,6 °C im Mittel. Der meiste Niederschlag fällt von Oktober bis Dezember mit durchschnittlich 70 bis 80 Millimeter, der geringste im Februar und April mit 52 Millimetern im Mittel. Die Niederschläge liegen im mittleren Drittel der in Deutschland erfassten Werte. An 52 % der Messstationen des Deutschen Wetterdienstes werden niedrigere Werte registriert. Im Dezember fallen 1½-mal mehr Niederschläge als im April. Die Niederschläge variieren nur minimal und sind extrem gleichmäßig übers Jahr verteilt. An nur 1 % der Messstationen werden niedrigere jahreszeitliche Schwankungen registriert als in Trier. Die Station Trier-Petrisberg des Deutschen Wetterdienstes misst durchgehend seit 1948. Der lokale Hitzerekord von 40,6 °C ist gleichzeitig der rheinland-pfälzische Hitzerekord und datiert vom 25. Juli 2019. Raumplanung In Rheinland-Pfalz bildet Trier eines der fünf Oberzentren, für die Mittelzentren Bernkastel-Kues, Bitburg, Daun, Gerolstein, Hermeskeil, Konz, Neuerburg, Prüm, Saarburg, Traben-Trarbach und Wittlich. Trier ist Mitbegründer des im März 2016 in Rostock begründeten „Deutschen Regiopolen-Netzwerks“. In der Stadt Trier gibt es einen starken Nachfrage­überhang nach Miet- und Eigentumswohnungen: Deutschlandweit gab es in Trier gemäß einer Erhebung des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) zwischen 2005 und 2010 die höchste Mietsteigerung. Der Landkreis Trier-Saarburg liegt bei dem bundesweiten Ranking mit 13,4 Prozent Mietzinssteigerung auf Platz drei. Ursache dieser Entwicklung ist die geographische Nähe Triers zu Luxemburg. Geschichte Trier ist eine von den Römern gegründete Stadt und hieß ursprünglich Augusta Treverorum, als eine Stadt des Kaisers Augustus und der Treverer. Die Treverer waren ein keltischer Stamm, der sich in der Region niedergelassen hatte. In der Spätantike war der Ort sehr bedeutend und hieß Treveris. Von dieser Bezeichnung leitet sich der heutige Ortsname Trier her. Vorgeschichte Nach der Gründungssage Triers, die erstmals 1105 in den Gesta Treverorum schriftlich aufgezeichnet wurde, soll Trebeta, der Sohn des Assyrerkönigs Ninus, Trier 1300 Jahre vor der Entstehung Roms gegründet haben. Das wäre etwa 2050 v. Chr. gewesen. Darauf weist auch die Inschrift aus dem Jahr 1684 am Roten Haus am Trierer Hauptmarkt hin: „ANTE ROMAM TREVERIS STETIT ANNIS MILLE TRECENTIS. PERSTET ET AETERNA PACE FRUATUR.“ („Vor Rom stand Trier tausenddreihundert Jahre. Möge es weiter bestehen und sich eines ewigen Friedens erfreuen.“) Die Fundstätte Hüttingen an der Kyll nördlich von Trier gilt als einer der ältesten archäologischen Nachweise menschlicher Tätigkeit in diesem Raum. Ihre Artefakte, darunter vor allem Mikrospitzen, Kernfußklingen und Kernsteine, ließen sich in das 9. Jahrtausend v. Chr. datieren. Möglicherweise handelte es sich um eine Haselnussröststelle. Bei Mannebach fanden sich ebenfalls Spuren mesolithischer Jäger, Fischer und Sammler. Weitere Fundstellen aus dem wenig entfernteren Umkreis kamen hinzu, so dass sich ein Rohstoffeinzugsgebiet von 15.000 bis 20.000 km² ermitteln ließ. Damit war der „Aktivitätsraum“ dieser Gruppen erheblich größer als in den benachbarten Gebieten und er war zugleich von großer Stabilität über mehrere Jahrtausende hinweg. Dies dürfte mit ähnlich stabilen Kommunikations- und Tauschstrukturen zusammenhängen, die vor allem weit westwärts reichten. Vermutlich spielte eine Erschließung mit Booten über das regionale Flusssystem, etwa Richtung Ardennen, eine wichtige Rolle. Durch Funde im Stadtgebiet können bandkeramische Siedlungen aus der älteren Jungsteinzeit nachgewiesen werden. Jedoch ist in dieser Zeit hier noch keine städtische Ansiedlung anzunehmen. Seit den letzten vorchristlichen Jahrhunderten siedelten Angehörige des keltischen Stammes der Treverer auf dem heutigen Stadtgebiet. Römisches Reich Nach gesicherten Quellen ist die Stadt Trier römischen Ursprungs: Zu Füßen eines 30 v. Chr. errichteten und nach wenigen Monaten wieder aufgegebenen Militärlagers auf dem Petrisberg gründeten die Römer an einem 3. März, sehr wahrscheinlich im Jahre 16 v. Chr., nach dem Ritus der Limitation die Stadt (Stadt des Augustus im Land der Treverer). Die Ehre, nach Augustus benannt zu werden, wurde ansonsten nur Autun () in Gallien/Frankreich, Aosta, Augsburg und Augst in der Nordschweiz zuteil. Unter Kaiser Claudius kam der Zusatz hinzu – . Bauwerke wie die Barbarathermen, das Amphitheater und die 6,4 Kilometer lange Stadtmauer mit dem bis heute erhaltenen nördlichen Stadttor, der Porta Nigra, zeugen vom Reichtum und von der großen Bedeutung, die die Stadt bis zum Ende des 2. Jahrhunderts erlangte. Frühestens in der zweiten Hälfte des dritten Jahrhunderts wurde Trier Bischofssitz; erster Bischof war Eucharius. Von 271 bis 274 war die Stadt Residenz des gallo-römischen Gegenkaisers Tetricus I. Im Jahr 275 wurde Trier durch den Alamanneneinfall zerstört. Von 293 bis 392 war die nun Treveris genannte Stadt eine der Residenzen der römischen Kaiser im Westen (siehe auch Spätantike). Unter der Herrschaft Konstantins des Großen (306–337) wurde die Stadt wieder aufgebaut und Gebäude wie die Palastaula (die heutige Konstantinbasilika) und die Kaiserthermen wurden errichtet. 326 wurden Teile der privaten Wohnpaläste der kaiserlichen Familie zu einer großen Doppelbasilika verändert und erweitert, deren Reste heute noch zum Teil im Bereich des Doms und der Liebfrauenkirche erkennbar sind. Ab 318 war Trier Sitz der Gallischen Präfektur, einer der zwei obersten Behörden im Westen des Römischen Reiches. 328 bis 340 residierte Kaiser Konstantin II. hier. Von 367 bis 392 war Trier unter Valentinian I., Gratian, Magnus Maximus und Valentinian II. erneut Regierungssitz des Römischen Reiches und gleichzeitig mit 80.000 bis 100.000 Einwohnern die größte Stadt nördlich der Alpen. 407, kurz nach dem Einfall der Vandalen, Alanen und Sueben in Gallien, wurde die Gallische Präfektur nach Arles an die Rhone verlegt. Im 5. Jahrhundert wurde Trier wiederholt, vermutlich um 413 und 421, von den Franken sowie 451 von den Hunnen unter Attila erobert. Rheinische Franken bemächtigten sich um 455 der Metropole, verloren sie aber wenige Jahre später wieder. Um 475 wurde die Stadt, die zwischenzeitlich von Arbogast dem Jüngeren verwaltet wurde, endgültig von den Franken eingenommen. Mittelalter Ende des 5. Jahrhunderts kam Trier unter die Herrschaft der Franken unter König Chlodwig. Die fränkischen Gaugrafen nahmen ihren Sitz in den Nebengebäuden der Konstantinbasilika, die vermutlich bereits Ruine war, und verwalteten von dort aus das umfangreiche Königsgut in Trier und Umgebung. Die antike Palastaula wurde von ihnen zur Königspfalz (Palatium) und Festung ausgebaut, die Fenster zugemauert, Zinnen aufgesetzt und die Apsis zum Heidenturm umgestaltet. Im Jahr 882 wurde Trier bei einem Raubzug der Wikinger erobert und nahezu vollständig zerstört. 892 wurde Trier ein zweites Mal von den Wikingern heimgesucht und erneut gebrandschatzt. Durch den Vertrag von Verdun Lothringen zugeschlagen, wurde es unter Heinrich I. 925 dem Ostfrankenreich einverleibt. Zunächst wurde die Stadt von den Grafen des Triergaus verwaltet; 902 schenkte König Ludwig das Kind dem Erzbischof Radbod wesentliche Hoheitsrechte sowie die Einnahmen der königlichen Pfalz. Damit kam die Stadt Trier in den Besitz der Erzbischöfe, die allerdings noch für längere Zeit die Wahrnehmung der politischen Verwaltungsaufgaben den Vögten des Erzstifts überlassen mussten, den mächtigen Pfalzgrafen bei Rhein. Der Wohnsitz der Erzbischöfe war der Bischofshof innerhalb der Domimmunität, angrenzend an die Liebfrauenkirche; erst 1197 wird das Palatium als bischöfliche Residenz genannt; zuvor war es nur als Fluchtburg genutzt worden, wegen der besonderen Stärke und Festigkeit des antiken Mauerwerks. Dies und der seit der zweiten Hälfte des 10. Jahrhunderts behauptete Status Triers als Roma secunda dürften zu dem Umzug geführt haben. Im 12. Jahrhundert gewannen die Bischöfe auch die weltlichen Besitzungen der Reichsabtei St. Maximin und die Vogteirechte in Kurtrier. Das Palatium wurde über die Jahrhunderte zum Nieder- und Hochschloss und schließlich zum Kurfürstlichen Palais erweitert. Die Stadt bekam 957 Marktrechte und ab 1149 führte sie ein Siegel. Seit dem 10. Jahrhundert strebte Trier danach, reichsunmittelbar zu werden. 1212 erhielt die Stadt von Kaiser Otto IV. einen Freibrief, den Konrad IV. bestätigte. 1309 musste sie jedoch erneut die Gerichtsbarkeit des Erzbischofs anerkennen, damals der bedeutende Balduin von Luxemburg (siehe auch Kurfürstentum Trier). Ihr Status als erzbischöfliche Stadt wurde 1364 von Kaiser Karl IV. und 1580 vom Reichskammergericht bestätigt; das Streben nach der Reichsunmittelbarkeit scheiterte allerdings 1583 endgültig. Bis zum Ende des alten Reichs blieb die Stadt Hauptstadt – wenn auch nicht Residenz – des nach ihr benannten Kurstaats. An ihrer Spitze stand ein Schöffengericht, das 1443 vom Erzbischof Jakob I. von Sierck durch Einsetzung zweier Bürgermeister ergänzt wurde. Im Jahr 1473 kamen Kaiser Friedrich III. und Herzog Karl der Kühne von Burgund in Trier zusammen. Im selben Jahr wurde in Trier eine Universität gestiftet, die 1797 unter Napoleon aufgehoben wurde. Nachdem Ende des 10. Jahrhunderts zunächst der Dombering befestigt worden war, wurde im 12. und 13. Jahrhundert eine Stadtmauer errichtet. Der Gürtel, der in etwa dem heutigen Alleenring entspricht, umfasste eine Fläche von etwa 138 Hektar. Die damals als Kirche ausgebaute Porta Nigra war Teil der Befestigung, aber kein Tor. Ebenfalls integriert wurden die Ruinen der Kaiserthermen. In der Stadt entstanden eine Reihe von romanischen Wohntürmen, von denen nur wenige, wie der Frankenturm, noch erhalten sind. Im 14. Jahrhundert kämpfte die Stadt lange um ihre Selbstverwaltung und um die Einführung einer Ratsverfassung. Sie erreichte die Trennung der Gemeindeverwaltung von der kurfürstlichen Gerichtsbarkeit. Im 15. Jahrhundert erließ der Rat Münzordnungen und zog auch die Niedere Gerichtsbarkeit an sich. Neuzeit bis nach dem Ersten Weltkrieg 1512 fand in Trier ein Reichstag statt, auf dem die Einteilung der Reichskreise endgültig festgelegt wurde. Im September 1522 belagerte der Reichsritter Franz von Sickingen Trier mehrere Tage lang. Seine Artillerie beschoss das Stadtgebiet – unter anderem von der Berghöhe, die später den Namen „Franzensknüppchen“ erhielt. Darüber hinaus ließ Sickingen Pfeilbriefe in die Stadt schießen. Auf den Zetteln sicherte er der Bevölkerung zu, er werde gegen die Bürger Triers nichts unternehmen, sondern lediglich gegen den Kurfürsten und die Geistlichen vorgehen. Davon ließen sich die Trierer nicht beeindrucken; daher zog Sickingens Heer nach wenigen Tagen wieder ab. Als mit dem Reformator Caspar Olevian etwa 100 wohlhabende Familien die Stadt und den Kurstaat verlassen mussten, führte dies um 1560 zu einer Verschlechterung der Wirtschaftslage. Der jahrhundertelange Kampf der (teils protestantisch gewordenen) Bürgerschaft gegen die Trierer Kurfürsten mit dem Ziel, den Status einer Freien Reichsstadt zu erlangen, wurde im Zuge der Gegenreformation unter dem Kurfürsten Jakob III. von Eltz endgültig zugunsten des Erzstifts Trier entschieden. Zuerst ließ er im sogenannten „Bohnenkrieg“ 1568 die Stadt durch eine Blockade vom Geschäftsverkehr abschneiden, wie es schon manche Amtsvorgänger getan hatten. 1580 erwirkte er schließlich eine Verfügung Kaiser Rudolfs II., wonach Trier der Landeshoheit des Kurfürsten bedingungslos unterstellt sei. Der Stadtschlüssel musste ihm übergeben werden und die neue Stadtverfassung (Constitutio Eltziana) setzte einen kurfürstlichen Statthalter an die Spitze der bisher selbstverwalteten Stadt. Dietrich Flade, Jurist, kurfürstlicher Statthalter und Rektor der Universität Trier, hatte in seiner Funktion als Hexenrichter zahlreiche Hexenprozesse geleitet und Todesurteile gesprochen. 1588 geriet er selber in einen Hexenprozess. Er wurde auf Befehl des Kurfürsten Johann von Schönenberg am 4. Juli 1588 verhaftet und am 18. September 1589 zum Feuertod verurteilt. Das Urteil wurde am gleichen Tag an der Hinrichtungsstätte im heutigen Trierer Stadtteil Euren vollzogen. Seit dem 16. Jahrhundert hielten sich die Kurfürst-Erzbischöfe zunehmend in Koblenz-Ehrenbreitstein auf, wo sie schon seit dem Jahr 1020 die Burg Ehrenbreitstein besaßen. Während des Achtzigjährigen Krieges in den Niederlanden zogen spanische und andere Truppen durch Trier, das nahe der Westgrenze des Reiches lag. Im Dreißigjährigen Krieg geriet Kurtrier zwischen die habsburgischen und französischen Interessensphären. Kurfürst Philipp Christoph von Sötern sah sich wegen der ständigen Bedrohung gezwungen, seine Residenz an einen sicheren Ort zu verlegen und erbaute sich unterhalb der Burg Ehrenbreitstein 1626–1632 das Schloss Philippsburg auf der rechten Rheinseite. Ab 1632 wurde es zur Hauptresidenz des Kurfürstentums, nachdem der Renaissancebau des Trierer Kurfürstlichen Palais ebenfalls gerade erst vollendet war. Mit der Verlegung des Hofes zog auch der Stiftsadel nach Koblenz, das bis 1786 Residenz blieb und dadurch einen wirtschaftlichen Aufschwung nahm; nur die Domherren blieben in Trier. Im Konflikt des Kurfürsten Philipp Christoph mit den Landständen und der Stadt Trier, die sich wiederholt seinen finanziellen Forderungen widersetzten, suchte die Stadt den Schutz des Kaisers und der spanischen Regierung in Luxemburg. Aus Sorge vor einer Besetzung durch spanische Truppen rief der Kurfürst zunächst im Jahr 1630 Truppen der Katholischen Liga zu Hilfe. Als Trier diesen den Einzug verweigerte, ließ Kurfürst Sötern die Stadt belagern. Nun erschienen tatsächlich spanische Truppen aus Luxemburg zur Hilfe für die Stadt, vertrieben die Ligatruppen und ließen eine Besatzung zurück. Die Präsenz der Spanier und das zwischenzeitliche Vorrücken der protestantischen Schweden in Deutschland bewegten Sötern, das nahegelegene Frankreich um Unterstützung zu bitten, zu dem er wie seine Vorgänger gute Beziehungen pflegte. 1632 rückten französische Truppen an, zwangen die spanische Besatzung zur Kapitulation und übergaben Trier wieder der Kontrolle des Kurfürsten. Dieser hatte sich allerdings die Spanier und Kaiserlichen endgültig zum Gegner gemacht. Das wurde ihm zum Verhängnis, als jene nach der Schlacht bei Nördlingen 1634 militärisch wieder auf dem Vormarsch waren. Im März 1635 wurde die französische Besatzung der Stadt überraschend von einem kleinen spanischen Kontingent unter dem Luxemburger Gouverneur Graf Emden angegriffen und überwältigt. Philipp Christoph von Sötern wurde festgenommen und die nächsten zehn Jahre in den Spanischen Niederlanden, dann in Österreich gefangen gehalten. Die Herrschaft über Kurtrier wurde dem Domkapitel übertragen. Söterns Gefangennahme diente Frankreich als äußerer Anlass für die Kriegserklärung an Spanien und den Kaiser. Dies bedeutete Frankreichs offiziellen Eintritt in den Dreißigjährigen Krieg und löste den Französisch-Spanischen Krieg sowie den Schwedisch-Französischen Krieg (1635–1648) aus. Erst 1645 wurde der Trierer Kurfürst unter Auflagen freigelassen. Diese brach er jedoch rasch, als er unter anderem das immer noch spanisch besetzte Trier am 18. November 1645 von den Franzosen unter Turenne zurückerobern ließ. Die Feindschaft des Domkapitels gegen die eigenmächtige Berufung eines Koadjutors durch den Kurfürsten führten zu dessen endgültiger Entmachtung. 1649 eroberten vom Domkapitel angeworbene Truppen Trier, 1650 wählte das Kapitel Karl Kaspar von der Leyen zum Koadjutor und Nachfolger des Kurfürsten, was dieser schließlich akzeptieren musste. Während des Holländischen Krieges, zwischen dem französischen König Ludwig XIV. und den Generalstaaten, bemühte sich der Trierer Kurfürst Karl Kaspar von der Leyen erfolglos um Wahrung der Neutralität. Nach einmonatiger Belagerung nahmen französische Truppen die Stadt am 8. September 1673 ein. Die französische Kriegsleitung entschied zu Beginn des folgenden Jahres, Trier zu befestigen. Um Angreifern keine Deckung zu bieten, ließ der französische Stadtkommandant, Graf Pierre Renaud de Vignory, das Umfeld der Stadt systematisch verwüsten. Mit Ausnahme der weiter entfernt gelegenen Benediktinerabtei St. Matthias, wurden nicht nur alle Wohn- und Wirtschaftsgebäude der Zivilbevölkerung niedergelegt, sondern auch sämtliche Klöster und Stifte der näheren Umgebung (Reichsabtei St. Maximin, Stift St. Paulin, Kloster St. Alban, Kloster St. Barbara, Kloster Löwenbrücken). Nachdem Vignory ein Sturz vom Pferd das Leben gekostet hatte, veranlasste sein Nachfolger, Marschall Créquy, zusätzlich den Abriss des Klosters St. Marien, der Barbarathermen und der Marienkirche an der Römerbrücke; sogar die Obstbäume der Klöster wurden gefällt. Nach der Schlacht an der Konzer Brücke im August 1675 gelang es, die Stadt von den französischen Truppen zu befreien. Erneute französische Besetzungen der Stadt folgten 1684, (Reunionskrieg), 1688–98 (Pfälzischer Erbfolgekrieg) sowie 1702–04 und 1705–14 (Spanischer Erbfolgekrieg). Die längste währte zehn Jahre (1688–98). Zeitweise entsprach die Zahl der Besatzungstruppen der damaligen Bevölkerungszahl von rund 4000 Köpfen. Erst gegen Ende des 18. Jahrhunderts war die Bevölkerungszahl wieder auf etwa 8000 Menschen angewachsen. Während des Ersten Koalitionskrieges war Trier im Sommer 1792 Etappenquartier der gegen Frankreich ziehenden preußisch-hessischen Invasionsarmee. Nach deren Niederlage während der Kanonade von Valmy wurde die Stadt im Herbst 1792 ihrerseits zum Angriffsziel französischer Revolutionstruppen. Der österreichische Generalmajor Anton Joseph von Brentano-Cimaroli verteidigte das Trierer Land jedoch erfolgreich. Zwei Jahre später, einen Tag nach der Niederlage gegen den französischen General Jean René Moreaux, in der Schlacht an den Pellinger Schanzen (8. August 1794), fiel Trier allerdings dauerhaft an die Franzosen. Im Frieden von Campo Formio (1797) erkannte Kaiser Franz II. den Rhein als Ostgrenze Frankreichs an. Die linksrheinischen Gebiete wurden durch Regierungskommissar François Joseph Rudler in vier Départements aufgeteilt: In das Département de la Sarre mit der Hauptstadt Trier, das Département du Mont-Tonnerre (Donnersberg) mit der Hauptstadt Mainz, das Département de Rhin-et-Moselle (Koblenz) und das Département de la Roer (Aachen). Nach dem Frieden von Lunéville (1801) gehörten die linksrheinischen Gebiete auch völkerrechtlich zu Frankreich. Damit erhielten die Bewohner Triers die französische Staatsbürgerschaft und alle damit verbundenen Rechte. Nach der Unterdrückung während der Besatzungszeit seit 1794 folgte nun eine Phase des inneren Friedens und wirtschaftlichen Aufschwungs. So profitierte Trier nun vom direkten Zugang zu den französischen Märkten. 1799 wurde das Revisionsgericht Trier und 1803 das Appellationsgericht Trier als oberstes Gericht für die vier Départements (ab 1805 nur noch für drei dieser Départements) in Trier eingerichtet. Um die Jahrhundertwende wurden unter der französischen Herrschaft fast alle der zahlreichen Klöster und Stifte der Stadt aufgehoben. Neben der Säkularisation der Klöster wurde daraufhin ein beachtlicher Teil der alten Bausubstanz – Klöster, aber auch Kirchen und Kapellen – abgerissen. Die Niederlegungen erfolgten teilweise sofort, teilweise im weiteren Verlauf des 19. Jahrhunderts, wenn sich keine Nutzung mehr für die Klostergebäude fand und Neubauten geplant wurden. Im Zuge der Befreiungskriege wurde Trier am 6. Januar 1814 von preußischen Truppen eingenommen. Seit dem Wiener Kongress 1815 gehörte Trier zu Preußen. Trier wurde Sitz des Regierungsbezirks Trier, des Stadtkreises Trier mit der Bürgermeisterei Trier und des Landkreises Trier. Die tiefkatholische Stadtbevölkerung und die protestantischen Herrscher standen sich noch über Jahrzehnte mit wenigen Sympathien gegenüber. Im 19. Jahrhundert wuchs Trier schließlich über seine mittelalterliche Stadtmauer hinaus. Die Mauer blieb jedoch vorerst noch von Bedeutung, da an den Toren die 1820 eingeführte „Mahl- und Schlachtsteuer“ – die Haupteinnahmequelle der Stadt – auf alle nach Trier eingeführten Mehl- und Metzgerprodukte erhoben wurde. 1875 wurde die unbeliebte Mahl- und Schlachtsteuer durch eine andere Steuer ersetzt, die keine Einfuhrkontrollen mehr erforderte. Bereits am 3. Dezember des Jahres genehmigte der Kultusminister die von großen Teilen der Bevölkerung gewünschte Abtragung von Mauern und Toren. Bis 1876/77 wurden bereits vier Stadttore abgerissen. Nur der Exerzierplatz des Militärs (heutiger Palastgarten und Kaiserthermen) mit Teilen der Südallee und das Proviantamt (am „Schießgraben“) sollten von der Mauer weiterhin gegen die Bevölkerung abgeschirmt bleiben. Die übrigen Stücke der Mauer verschwanden bis zum Ende des 19. Jahrhunderts fast vollständig. Das gab der Entwicklung der Stadt einen neuen Anstoß, führte aber zu Bedenken von Denkmalschützern, die den besonderen Charakter der Stadt gefährdet sahen. Nach dem Ersten Weltkrieg mussten sich alle deutschen Truppen hinter den Rhein zurückzuziehen, wie es im Waffenstillstand von Compiègne vom 11. November 1918 vereinbart worden war. An ihre Stelle traten zunächst Soldaten der 3. US-Armee, die am 1. Dezember 1918 in Trier einzogen und die Stadt besetzten. Die amerikanischen Truppen wurden im Sommer 1919 von der französischen Armee abgelöst, die bis 1930 als Besatzungsarmee in Trier blieb. Nach dem Abzug der französischen Besatzer lag Trier in den Folgejahren in der entmilitarisierten Zone, bis Hitler im Rahmen der Rheinlandbesetzung unter Bruch der Verträge von Versailles und Locarno am 7. März 1936 die entmilitarisierte Zone und damit auch Trier durch Einheiten der Wehrmacht besetzen ließ. Trier wurde wieder deutsche Garnisonsstadt. Weil die alten Kasernen aus der Zeit vor dem Ersten Weltkrieg zwischenzeitlich meist als Wohnungen umgenutzt worden waren, wurden neue Kasernen errichtet, zum Beispiel auf dem Petrisberg, in Feyen und in Trier-Nord. Zeit des Nationalsozialismus Die von den Nationalsozialisten bis 1938 eingerichtete Kemmelkaserne auf dem Petrisberg wurde im Zweiten Weltkrieg zum berüchtigten Kriegsgefangenenlager Stalag XII D, in dem vor allem französische Kriegsgefangene untergebracht wurden. Die Synagoge in der Zuckerbergstraße wurde in der Reichspogromnacht 1938 geplündert und 1944 bei einem Bombenangriff völlig zerstört. Am 19. Juni 1936 schlossen die Stadt Trier und das Deutsche Reichsministerium für Wissenschaft, Erziehung und Volksbildung einen Vertrag über den Bau einer Lehrerbildungsanstalt. Damit wurde Trier nach 138 Jahren wieder eine Hochschulstadt. Die Lehrerbildungsanstalt wurde im Sommer 1936 in Anwesenheit des Reichserziehungsministers Bernhard Rust mit einer großen, zweitägigen und stark nationalsozialistisch geprägten Feier eröffnet. Die für die Lehrerbildungsanstalt errichteten Gebäude auf dem Schneidershof sind weitgehend erhalten und heute die Gebäude J, K, L, O, T (Turnhalle) und der heutige Kindergarten der Hochschule Trier. Erhalten ist auch die für die Trierer Hitlerjugend im Stadtteil Biewer 1936/1937 errichtete Staatsjugendschule. Am 13. September 1944 schlug vor der Pfarrkirche St. Paulin die erste Artilleriegranate ein und tötete dort einen neunjährigen Jungen. Trier war nicht mehr weit von der Front entfernt. Seitdem gab es fast täglich Artilleriebeschuss, der besonders gefürchtet war, weil die Geschosse ohne Vorwarnung detonieren. Im Dezember 1944 trafen drei schwere Luftangriffe der Alliierten Trier: am 19. Dezember gegen 15:30 Uhr warfen 30 britische Lancaster-Bomber 136 Tonnen Sprengbomben über der Stadt ab, am 21. Dezember 1944 gegen 14:35 Uhr warfen 94 Lancaster-Bomber und 47 amerikanische Jagdbomber 427 Tonnen Bomben (Spreng-, Brand- und Napalmbomben) ab und am 23. Dezember wurden 700 Tonnen Bomben abgeworfen. Nach Recherchen des Heimatforschers Adolf Welter starben bei diesen drei Angriffen mindestens 420 Menschen. Zahlreiche Gebäude wurden beschädigt. Während des Krieges wurden 1600 Häuser völlig zerstört. Am Abend des 1. März 1945 startete die zur 10. US-Panzerdivision der 3. US-Armee gehörende Task Force Richardson von Zerf aus Richtung Trier. Die Task Force erreichte von Lampaden über Obersehr, Ollmuth und Hockweiler vorstoßend das heutige Trierer Stadtgebiet bei Irsch und rückte über Olewig weiter Richtung Innenstadt vor. Zuvor hatte die ebenfalls zur 10. Panzerdivision gehörende Task Force Haskell Filsch, Tarforst und den Petrisberg erobert und war am 1. März über Kürenz in Trier-Nord einmarschiert. Von Konz-Niedermennig aus rückte die Task Force Norris auf Trier-Süd vor und die Task Force Cherry riegelte Richtung Ruwer ab. Aufgabe der Task Force Richardson war die Einnahme der Moselbrücken. Zur Task Force Richardson gehörten folgende Einheiten: Das 20. Armored Infantry Battalion (ohne die Kompanien A und C); die B-Kompanie des 21. Tank Battalions sowie eine Sektion der D-Kompanie des 21. Tank Battalions; der 3. Zug der B-Kompanie des 55th Armored Engineer Battalions und der 2. Zug der A-Kompanie des 609th Tank Destroyer Battalions und Teile des 796. Anti-Aircraft Artillery (Automatic Weapons) Battalions. Eine klare Vollmondnacht bot günstige Sicht. Vor Mitternacht erreichten sie die Stadt. Eine überraschte Kompanie mit vier Panzerabwehrkanonen kapitulierte ohne einen Schuss. Richardson teilte seine Truppe in zwei Hälften auf und schickte beide zu je einer Moselbrücke. Das Team von Hauptmann Billet fand gegen 2 Uhr die Kaiser-Wilhelm-Brücke gesprengt vor; das Team von Leutnant Riley rückte von dort weiter Richtung Römerbrücke vor und meldete, dass sie intakt sei. Colonel Richardson fuhr selber in einem Panzer zur Brücke; dort wurden seine Männer mit leichten Waffen vom anderen Ufer beschossen. Er richtete Maschinengewehrfeuer von seinem Panzer ans andere Ende der Brücke und befahl einem Infanterie- und einem Panzertrupp, über die Brücke vorzustoßen. Als die Trupps das taten, rannten ein deutscher Major und fünf Soldaten mit brennenden Sprengzündern auf die Brücke zu. Eine Sprengung gelang ihnen aber nicht. Am 2. März 1945 gegen 10 Uhr war Trier erobert und mehr als 800 deutsche Soldaten gingen in Gefangenschaft. Die Eroberung Triers wurde von den Amerikanern als großer Erfolg gefeiert und produzierte landesweit Schlagzeilen. Am 7. März besuchte sogar der Oberkommandierende der US-Truppen in Europa, der spätere US-Präsident Dwight D. Eisenhower, gemeinsam mit General George S. Patton und dem Kommandeur des XX. US-Korps, Walton Walker, Trier und verlieh Lieutenant Colonel Jack J. Richardson den Silver Star, den vierthöchsten Orden der US-Armee. Nachkriegszeit bis zum Jahr 2000 Nach Kriegsende herrschte große Not. Im März 1946 wurde auf der zerstörten Basilika die Hungerflagge gehisst. In dieser Situation kam Hilfe aus Schweizer Dörfern. Ab dem 27. Mai 1946 wurden im sogenannten Schweizerdorf, d. h. in vier auf dem Augustiernhof errichteten Baracken vor allem über 2000 Kinder verpflegt. Bis 30. Juni 1948, d. h. bis kurz nach der Währungsreform, nach der sich die Versorgungslage schlagartig verbesserte, wurden mehr als eine Million aus der Schweiz gelieferte Essensportionen ausgegeben. Weiterhin wurde Lebertran an mit Tuberkulose erkrankte Kinder verteilt. Kleinkinder wurden mit Obstsäften versorgt. Schuhe und Bekleidung wurden verteilt und repariert. Nach dem Abbau des Schweizerdorfs blieben viele Gegenstände in Trier. Einige kamen in das Trierer Klarissenkloster und nach dessen Auflösung 2017 in das Freilichtmuseum Roscheider Hof. Seit 1946 gehört Trier zum Land Rheinland-Pfalz. 1957 wurde die neue Synagoge der jüdischen Gemeinde Trier in der Kaiserstraße eingeweiht. Ende April 1969 wurde an der Porta Nigra die Römerstraße freigelegt. Kurz darauf, am 12. Mai 1969, wurde das Wildfreigehege im Weißhauswald eröffnet. Im Jahr 1970 wurde die Universität eröffnet, zunächst als Teil der Doppeluniversität Trier–Kaiserslautern. Die Entwicklung Triers zur Universitätsstadt schritt am 1. April 1974 durch die Eröffnung des Studentenwohnheims Martinskloster weiter voran. Im Jahr 1975 wurde die Universität verselbstständigt. 1971 wurde aus den Vorgängerinstitutionen Staatliche Ingenieurschule für das Bau- und Maschinenwesen Trier und der Werkkunstschule Trier die Abteilung Trier der Fachhochschule Rheinland-Pfalz gegründet. Seit 1996 ist sie als Hochschule Trier (bis 11. September 2012 Fachhochschule Trier) eine eigenständige Fachhochschule. Weitere wichtige Ereignisse in den 1970er Jahren waren die Einstellung der 99-jährigen Trierischen Landeszeitung am 31. März 1974 und die Wiedereröffnung des restaurierten Domes am 1. Mai desselben Jahres. Vom 24. Mai bis 27. Mai 1984 feierte Trier offiziell das 2000-Jahr-Jubiläum der Stadt. 1986 wurden die Römischen Baudenkmäler, Dom und Liebfrauenkirche in Trier von der UNESCO zum Weltkulturerbe erklärt. Bei Arbeiten zum Bau einer Tiefgarage im Oktober 1988 wurden unter dem Viehmarkt Reste einer römischen Thermenanlage entdeckt. Am 5. November wurde die Sternwarte Trier offiziell eingeweiht. Am 9. September 1993 wurde bei Ausschachtungsarbeiten für eine weitere Tiefgarage nahe der Römerbrücke ein Schatz mit 2558 römischen Goldmünzen gefunden. Er hat einen geschätzten Edelmetallwert von 2,5 Millionen Euro. Beim Jahrhunderthochwasser der Mosel erreichte der Pegelstand am 23. Dezember 1993 eine Rekordmarke von 11,28 m. Der Stadtteil Pfalzel entrann nur knapp einer Überschwemmungskatastrophe. Im 21. Jahrhundert Vom 22. April bis 24. Oktober 2004 fand die Landesgartenschau auf dem Petrisberg statt, die von 724.000 Gästen besucht wurde. Bei der Amokfahrt eines 51-Jährigen am 1. Dezember 2020 in der Innenstadt von Trier wurden fünf Menschen getötet und 18 verletzt. Ein lebensgefährlich verletzter 77-jähriger Mann starb im Oktober 2021. Eingemeindungen Ehemals selbstständige Gemeinden und Gemarkungen, die in die Stadt Trier eingegliedert wurden. Einige der Orte waren zwischen 1798 und 1851 bereits Teil des Stadtgebiets. 1798 umfasste das Stadtgebiet insgesamt 890 Hektar. Einwohnerentwicklung Anfang des 4. Jahrhunderts war Trier als Residenz der römischen Kaiser mit schätzungsweise 80.000 Einwohnern die größte Stadt nördlich der Alpen. Im Mittelalter und bis zum Anfang der Neuzeit sank die Einwohnerzahl wegen der zahlreichen Kriege, Seuchen und Hungersnöte auf nur noch 2.677 im Jahr 1697. Im 18. Jahrhundert wuchs die Bevölkerung der Stadt bis auf 8.829 im Jahr 1801. Mit Beginn der Industrialisierung im 19. Jahrhundert beschleunigte sich das Bevölkerungswachstum. Im Jahr 1900 lebten in der Stadt über 43.000 Menschen. Bis 1939 verdoppelte sich diese Zahl auf über 88.000. Im Zweiten Weltkrieg verlor die Stadt rund 35 Prozent ihrer Bewohner (30.551 Personen). Die Einwohnerzahl sank auf 57.000 im Jahr 1945. Erst im Zuge der Eingemeindung mehrerer Orte am 7. Juni 1969 wurde der Vorkriegsstand wieder erreicht. Gleichzeitig überschritt die Einwohnerzahl der Stadt erstmals die Grenze von 100.000, wodurch sie nach offizieller Definition zur Großstadt wurde. Seit der Jahrtausendwende lag die „Amtliche Einwohnerzahl“ für Trier nach Fortschreibung des Statistischen Landesamtes Rheinland-Pfalz (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern) zumeist sehr knapp unter 100.000. 2006 wurde der „Großstadt-Schwellenwert“ nach der Einführung einer Zweitwohnungsteuer wieder überschritten. Zum Jahresende 2016 hatte Trier über 110.000 Einwohner. Bundesweit steht Trier damit an der 73. Stelle unter den Großstädten in Deutschland (Stand: 2022). In den Einwohnerstatistiken sind die Angehörigen der zwischen 1945 und 1999 in Trier stationierten französischen Streitkräfte mit ihren Familien nicht enthalten. Dabei handelte es sich zeitweise um über 30.000 Menschen. Religion Geschichte Das römisch-katholische Christentum spielte und spielt in der Geschichte Triers eine überdurchschnittlich wichtige Rolle. Zur Zeit der Treverer wurden keltische Gottheiten in den Tempelbezirken in Trier-West unterhalb des Markusberges an einer Felsenquelle (Tempelbezirk Irminenwingert) und im Altbachtal verehrt. Im 2. Jahrhundert entstand ein gallo-römischer Tempelbezirk im Altbachtal mit 70 Tempeln und weiteren Kultstätten auf einer Fläche von etwa fünf Hektar. Konstantin der Große, Kaiser des römischen Reichs, der zeitweise in Trier residierte, zeigte sich ungefähr ab dem Jahr 323 offen als Christ. Wie es damals üblich war, hatte sich Konstantin erst kurz vor seinem Tod im Jahr 337 taufen lassen. Bereits seit Konstantin ist Trier christlich. Trier wurde wohl schon zum Ende des 3. Jahrhunderts Sitz eines christlichen Bischofs, der später zum Erzbischof aufstieg. Dieser beherrschte ein geistliches Territorium, das von 1189 bis 1806 eines der Kurfürstentümer des Heiligen römischen Reichs deutscher Nation war. Eine der ersten deutschen Synagogen entstand 1066, 1096 fand ein Pogrom der Kreuzfahrer an den Trierer Juden statt, die der Bischof nicht verteidigen konnte. In der Bischofsstadt konnte die Reformation keinen Fuß fassen; aus Trier ging jedoch mit Caspar Olevian einer der bedeutendsten deutschen reformierten Theologen hervor. Trier blieb eine überwiegend katholische Stadt; eine Minderheit der Trierer bekannte sich zum Judentum. Im 17. Jahrhundert wurde der Bischofssitz teilweise nach Koblenz verlegt. Nach der Besetzung des Erzbistums durch die Franzosen 1794 wurde die Kirchenprovinz schließlich 1803 aufgelöst und das Territorium 1815 der späteren preußischen Rheinprovinz eingegliedert. Trier wurde jedoch 1821 erneut Sitz eines Bischofs, dessen Diözese neu umschrieben und der Kirchenprovinz Köln zugeordnet wurde (Suffraganbistum Trier). Die heutigen Pfarrgemeinden der Stadt bilden seit November 2003 das Dekanat Trier innerhalb des Bistums Trier. Trier ist ein bedeutender Wallfahrtsort. Im Dom wird der Heilige Rock (siehe Erzbischof Johann I.) aufbewahrt, der in unregelmäßigen Abständen von einigen Jahrzehnten ausgestellt wird. Daneben gibt es die Heilig-Rock-Tage. Eine weitere Wallfahrt geht zum Grab des Apostels Matthias. In der Benediktinerabtei St. Matthias (dial. auch St. Mattheis) befindet sich der Überlieferung nach das einzige Apostelgrab nördlich der Alpen. Die Gebeine des Apostel Matthias sollen im Auftrag der Kaiserin Helena, Mutter des römischen Kaisers Konstantin I., vom Trierer Bischof Agritius nach Trier überführt worden sein. Hauptwallfahrtszeit ist die Woche um Christi Himmelfahrt. Nachdem Trier preußisch wurde, kamen auch Protestanten in die Stadt, die eine evangelische Kirchengemeinde gründeten. Die ehemalige Jesuitenkirche wurde nach einem Jahr als Simultankirche ab 1819 bis 1856 evangelische Pfarrkirche. Danach wurde die zu diesem Zweck wiederaufgebaute Konstantinbasilika evangelische Pfarrkirche und die Jesuitenkirche wieder an die Katholiken übergeben. Durch die 1969 erfolgte Eingemeindung der ehemals selbstständigen Stadt Ehrang und anderer Gemeinden westlich der Mosel kam die heutige, seit 1946 selbstständige evangelische Kirchengemeinde Trier-Ehrang mit ihrer 1928–1930 errichteten Kirche zu Trier. Das Gemeindegebiet der Evangelischen Kirchengemeinde Trier-Ehrang umfasst heute die Trierer Stadtteile westlich der Mosel sowie in etwa das Gebiet der Verbandsgemeinden Schweich, Trier-Land und Ruwer. Die 1963 geweihte Christuskirche im Stadtteil Heiligkreuz wurde 2014 wieder aufgegeben. Heute gehören alle evangelischen Christen Triers zum Evangelischen Kirchenkreis Trier der Evangelischen Kirche im Rheinland, es sei denn, dass sie Mitglieder einer Freikirche sind. Neben evangelischen und römisch-katholischen Kirchengemeinden bestehen weitere Freikirchen und Religionsgemeinschaften in Trier: Evangelisch-Freikirchliche Gemeinde (Baptisten), Freie evangelische Gemeinde, Adventgemeinde, Freikirchliche Pfingstgemeinde, Christengemeinde, Die Christengemeinschaft, Gemeinde Christi, eine Neuapostolische Kirche, Russische-Orthodoxe Kirchengemeinde sowie mehrere Gemeinden der Zeugen Jehovas. Der Trierer jüdischen Gemeinde, die seit dem Mittelalter, möglicherweise sogar seit der Antike, existierte, entstammte unter anderem Karl Marx, der berühmteste Sohn Triers; viele seiner Vorfahren waren Rabbiner in Trier gewesen. Auch der Trierer Bischof Matthias Eberhard entspross väterlicherseits einer jüdischen Familie; sein Großvater war zum Katholizismus konvertiert. In der Hornstraße existiert ein buddhistisches Zentrum. In der Luxemburger Straße existiert ein islamisches Kulturzentrum mit einer Moschee. Die türkisch-islamische Haci Bayram Camii in Konz ist auch für Trier zuständig. Unter dem Namen „les amis de l'humanité“ entstand 1805 unter der napoleonischen Herrschaft eine Freimaurerloge. Noch heute arbeitet diese Loge in ihrem Logenhaus in der Brückenstraße unter dem Namen „Zum Verein der Menschenfreunde“. Trier liegt an einem Jakobsweg, der Pilger nach Santiago de Compostela führt. Konfessionsstatistik 2007 lebten in Trier knapp 67.500 römisch-katholische Christen, rund 13.600 Evangelische, ca. 2.000 Muslime (Schätzung) und etwa 500 Juden. Ende 2012 waren 63,6 % der Einwohner römisch-katholisch und 12,9 % protestantisch. 23,2 % hatten keine oder eine sonstige Konfessionszugehörigkeit. Der Anteil der Protestanten und vor allem der der Katholiken ist seitdem gesunken. In Trier ist nur noch weniger als die Hälfte der Bürger katholisch. Ende September 2023 waren 47,9 % der Einwohner römisch-katholisch und 9,7 % evangelisch. 42,4 % gehörten entweder einer anderen Glaubensgemeinschaft an oder waren konfessionslos. Politik An der Spitze der Stadt Trier stand seit 1302 der Schöffenmeister, gelegentlich auch Bürgermeister genannt. Der Schultheiß war Vertreter der erzbischöflichen Hoheitsrechte gegenüber der Stadt. Im 15. Jahrhundert standen zwei Bürgermeister an der Spitze. Es herrschte stets Streit mit dem Erzbischof über den Status der Stadt. 1795 führte die französische Besatzung die kollegiale Munizipalverfassung ein. 1798 wurde die Mairieverfassung eingeführt und einige Vororte eingegliedert. 1801 folgte eine neue Gemeindeverfassung, die im Wesentlichen bis 1845 beibehalten wurde, wobei der Bürgermeister ab 1818 den Titel Oberbürgermeister führte (Trier war inzwischen Stadtkreis geworden). Der Oberbürgermeister war zugleich Landrat des Kreises Trier (bis 1851). 1856 erhielt die Stadt die „Rheinische Städteordnung“. Der Gemeinderat entschied sich für die Bürgermeisterverfassung (im Gegensatz zur Magistratsverfassung). Mit dem preußischen Gemeindeverfassungsgesetz von 1933 sowie der Deutschen Gemeindeordnung von 1935 wurde das Führerprinzip auf Gemeindeebene durchgesetzt. Nach dem Zweiten Weltkrieg wurde zunächst ein Bürgermeister eingesetzt, der 1946 von den Stadtverordneten gewählt wurde. Er war zunächst ehrenamtlich, seit 1949 wieder hauptamtlich tätig. Trier gehört zum Bundestagswahlkreis Trier und zu den Landtagswahlkreisen Trier und Trier/Schweich. Stadtoberhäupter Die Stadtoberhäupter seit dem 18. Jh.: Der Trierer Oberbürgermeister trägt eine Amtskette aus Gold, die das alte Trierer Stadtsiegel zeigt, auf dem der Patron des Doms von Trier, der hl. Petrus, und der erste Bischof von Trier, Eucharius, von Christus den Schlüssel für die Sancta Treveris (das Heilige Trier) erhalten. Der ehemalige Beigeordnete Ulrich Holkenbrink kandidierte am 24. September 2006 für die CDU bei der Wahl zum neuen Oberbürgermeister, unterlag jedoch seinem von SPD und Bündnis 90/Die Grünen unterstützten Gegenkandidaten Klaus Jensen, der zwar SPD-Mitglied ist, aber als unabhängiger Kandidat antrat, deutlich. Holkenbrink erreichte 33,1 % der gültigen Stimmen, Jensen 66,9 %. Die Wahlbeteiligung betrug 43,2 %. Der Trierer Oberbürgermeister wird somit seit dem 1. April 2007 erstmals nach Kriegsende nicht von der CDU gestellt. Helmut Schröer hatte nicht mehr erneut kandidiert. Als Nachfolger von Klaus Jensen wurde am 12. Oktober 2014 Wolfram Leibe (SPD) mit 50,2 % der Stimmen gewählt. Er trat sein Amt am 1. April 2015 an. Bei der Direktwahl am 25. September 2022 wurde Leibe mit einem Stimmenanteil von 72,2 % bei erneut geringer Wahlbeteiligung (32,2 %) für weitere acht Jahre im Amt bestätigt. Stadtvorstand Der Trierer Stadtvorstand umfasst neben dem Oberbürgermeister noch den Bürgermeister sowie zwei hauptamtliche Beigeordnete. Die Mitglieder des Stadtvorstandes stehen zugleich den fünf Dezernaten vor. Dezernat I: Hauptdezernat – Oberbürgermeister Wolfram Leibe (SPD) Dezernat II: Soziales, Bildung, Jugend und Integration – Bürgermeisterin Elvira Garbes (Grüne), seit Februar 2018 Dezernat III: Kultur, Tourismus und Weiterbildung – Beigeordneter Markus Nöhl (SPD), ab 1. September 2021 Dezernat IV: Planen, Bauen und Gestalten – Beigeordneter Thilo Becker (parteilos), ab Mai 2023, Vorgänger: Andreas Ludwig (CDU), 2015 bis 2023 Dezernat V: Bürgerdienste, Innenstadt und Recht – Beigeordneter Ralf Britten (CDU), ab 1. November 2021 Stadtrat Der Stadtrat von Trier besteht aus 56 ehrenamtlichen Ratsmitgliedern, die bei der Kommunalwahl am 26. Mai 2019 in einer personalisierten Verhältniswahl gewählt wurden, und dem hauptamtlichen Oberbürgermeister als Vorsitzendem. Die Sitzverteilung im Stadtrat: Wappen Partnerschaften Trier ist neben Luxemburg, Metz und Saarbrücken, mit denen es sich zum Städtebund QuattroPole zusammengeschlossen hat, ein Oberzentrum der Großregion Saar-Lor-Lux-Rheinland Pfalz-Wallonie. Trier hat neun Partnerstädte: (Vereinigtes Königreich) seit Mai 1957 (Frankreich) seit 13. Oktober 1957 (Italien) seit 31. August 1958 (Niederlande) seit 7. Juni 1968 (Kroatien) seit 8. September 1971 (Deutschland) seit 24. Mai 1987 (Vereinigte Staaten) seit 13. Juli 1987 Nagaoka (Japan) seit 2. Juni 2006 Xiamen (Volksrepublik China) seit 11. November 2010 Jugendparlament Seit Ende 2011 gibt es in Trier ein Jugendparlament, das jeweils für zwei Jahre gewählt wird. Verschuldung der Stadt Im Jahr 2011 standen im Etat der Stadt Einnahmen von 301 Millionen Euro Ausgaben von 364 Millionen Euro gegenüber. Es mussten 63 Millionen Euro über Kredite finanziert werden. Insgesamt hatte die Stadt Trier 581 Millionen Euro Schulden. Bei der Pro-Kopf-Verschuldung lag Trier mit 6.174 Euro unter den kreisfreien Städten in Rheinland-Pfalz auf Platz fünf. Das ergab eine Analyse im Auftrag der Industrie- und Handelskammer Trier. Die Verschuldung im Jahr 2016 betrug 714.641.290 Euro und somit 6.545 Euro je Einwohner. Alle kreisfreien Städte in Rheinland-Pfalz hatten zu diesem Zeitpunkt eine Pro-Kopf-Verschuldung in Höhe von 5.626 Euro. Sehenswürdigkeiten Die bis in die Gegenwart erhaltenen römischen Bauwerke wurden 1986 als UNESCO-Welterbe Römische Baudenkmäler, Dom und Liebfrauenkirche in Trier ausgezeichnet. Antike Porta Nigra, Wahrzeichen der Stadt Amphitheater Thermen (Römische Badeanlagen): Kaiserthermen, Barbarathermen und Viehmarktthermen römische Palastaula/Konstantinbasilika (heute evangelische Kirche zum Erlöser) Römerbrücke antikes Gräberfeld (über 1000 Sarkophage) unter der Reichsabteikirche St. Maximin Albanagruft und weitere römische Grabkammern auf dem Gelände des Friedhofs der Benediktinerabtei St. Matthias Palatiolum in Trier-Pfalzel mit dem sogenannten Küsterhaus, dem ältesten bewohnten römischen Steinhaus in Deutschland Mittelalter Trierer Dom St. Peter (ältester Dom Deutschlands) Die Liebfrauenkirche (im frühsten gotischen Stil 1227–1243 erbaut und mit dem Dom durch einen Kreuzgang verbunden) Der mittelalterliche Hauptmarkt mit Steipe, Rotem Haus, St. Gangolf, Marktkreuz, Petrusbrunnen und der naheliegenden Judengasse Benediktinerabtei St. Matthias (romanische Kirche mit Apostelgrab) Wehrhafte Wohntürme: Frankenturm, Turm Jerusalem, Konviktsturm Dreikönigenhaus (frühgotisches Wohnhaus) Moselkräne (der ältere Moselkran von 1413, auch „Alter Krahnen“, und der barocke „(Alte) Zollkran“ von 1774, auch „Jüngerer Moselkran“ genannt) Heiligkreuz-Kapelle in Trier-Heiligkreuz (romanische Kapelle) Zewener Turm (Stadtteil Zewen) Ehemalige Stiftskirche in Trier-Pfalzel (heute in Resten Querschiff der Pfarrkirche) Rosportsches Haus in Pfalzel und ehemalige Burg Pfalzel Kurie Von der Leyen am Domfreihof Reste der mittelalterlichen Stadtmauer Trier, der Stadtmauer des heutigen Stadtteils Ehrang und der Befestigungen im Stadtteil Pfalzel 17. und 18. Jahrhundert Kurfürstliches Palais Barock-Palais Kesselstatt Löwen-Apotheke am Hauptmarkt (älteste Apotheke Deutschlands) Palais Walderdorff Quinter Schloss (Stadtteil Trier-Quint) Sankt Georgsbrunnen Barocke Basilika St. Paulin ehemalige Klosterkirche St. Irminen Schloss Monaise mit Park (Stadtteil Trier-Zewen) St. Jost, Kapelle, Siechenhaus und ehemaliger Leprosenfriedhof (Stadtteil Trier-Biewer) Alter Ortskern des Stadtteils Pallien mit Hofhaus der Abtei St. Martin, Handwerker- und Tagelöhnerhäusern sowie der Kirche St. Simon und Juda 1800 bis 1933 Französisches Casino Alter Jüdischer Friedhof an der Weidegasse Hauptfriedhof Trier mit Grabmälern aus dem 19. und 20. Jahrhundert, Kriegsgräbern beider Weltkriege, jüdischem Friedhofsteil Jugendstilhäuser in den Bereichen Eberhardstraße, Fleischstraße, Nagelstraße, Neustraße, Speestraße und Im Gartenfeld Karl-Marx-Haus und Karl-Marx-Wohnhaus Maria-Hilf-Kapelle mit dem Grab von Peter Friedhofen, dem Begründer des Ordens der Barmherzigen Brüder von Maria Hilf Mariensäule Balduinbrunnen Katholische Kirchenbauten des Historismus: Neuromanisch: St. Martin, Redemptoristenkloster St. Josef, Neugotisch: Herz Jesu, St. Helena (Euren), St. Peter (Ehrang), St. Germanus in Trier-Feyen-Weismark, und der Moderne: Klosterkirche St. Clara des Klarissinnenklosters auf dem Petrisberg (1930) Evangelische Kirche Trier-Ehrang Gebäude der teilweise erhaltenen Kasernenanlagen: Maximinkaserne (1802–ca. 1944), Palastkaserne (1803–1930), Städtische Kaserne (Trier) (auch Gneisenaukaserne) (1899–ca. 1930), Hornkaserne (Trier) (1889–1930), Artilleriekaserne (Trier) (1912–1928), Goeben-Kaserne (Trier) (1912–1930), Jägerkaserne (Trier-Nord) (1913–1992), Jägerkaserne (Trier-West) (1913–2014), Kemmelkaserne auf dem Petrisberg (1936–1999), Neue Hornkaserne (1937–1985), Kaserne Feyen (1938–1999), General-von-Seidel-Kaserne (1952–2012). Zeit des Nationalsozialismus Hochbunker Augustinerhof beim Rathaus Ehemalige nationalsozialistische Lehrerbildungsanstalt (heute Altbauten auf dem Campus Schneidershof der Hochschule Trier) Ehemalige Staatsjugendschule für die Trierer Hitlerjugend in Trier-Biewer Hochbunker in Trier-West Hochbunker in Trier-Nord Hochbunker in Trier-Feyen Mehrere Westwallbunker an der Grenze zwischen Trier-Zewen und Igel sowie bei Trier-Ruwer (am Grüneberg und in Richtung Kenn) Nachkriegszeit Hauptfriedhof Trier: Mahnmale zu den Gräueln des Nationalsozialismus und der Weltkriege: Denkmal für die Opfer der Gewaltherrschaft 1933–1945, Denkmal für 92 ermordete polnische Kinder, Ehrenmal für die sowjetischen Kriegsgefangenen usw. Siedlung für französische Offiziere mit Bauten in Holzrahmenbauweise. Erbaut 1948–1950 in Trier Nord (Hochwaldstraße und Wittlicher Straße nähe Nells Park) Ehemaliger Truppenübungsplatz der Französischen Streitkräfte mit künstlichen Ruinen zum Häuserkampftraining und Graffiti mit afrikanischen Landschaften (oberhalb des Stadtteils Trier-Feyen) Neubau des Theaters Trier von Gerhard Graubner aus dem Jahr 1964 Kirchen im Stil des Brutalismus und der Postmoderne: St. Michael im Stadtteil Mariahof – eine pyramidenartige, 1969/70 vom Architekten K. Schmitz erbaute Kirche; Kirchen des Dombaumeisters Karl Peter Böhr: St. Simeon (1966) in Trier-West (2019 entweiht, heute Bistumsarchiv), St. Agritius im Gartenfeld (1971), Maria-Hilf-Kapelle (Trier) (1990) Bauten in den Höhenstadtteilen: Wasserturm auf dem Petrisberg, Fernmeldeturm Trier-Petrisberg, Bauten der Universität Trier, Wasserband, Turm Luxemburg Bauten von Oswald Mathias Ungers: Schutzbau der Viehmarktthermen, Eingangsbereich der Kaiserthermen, Vorplatz der Konstantinbasilika. Die Karl-Marx-Statue auf dem Simeonstiftplatz wurde am 5. Mai 2018 zum 200. Geburtstag von Karl Marx enthüllt. Parks und Schutzgebiete Parks in Trier sind der Nells Park und der Palastgarten. Das Gelände der ehemaligen Landesgartenschau auf dem Petrisberg wurde seit 2004 zunehmend urbanisiert. In Trier liegen die Naturschutzgebiete Gillenbachtal (47 Hektar), das Orchideenbiotop Kahlenberg am Sievenicherhof (15,5 Hektar), Kenner Flur (31,4 Hektar), Kiesgrube bei Oberkirch (4,7 Hektar) und Mattheiser Wald (447 Hektar), das gleichzeitig als Fauna-Flora-Habitat-Gebiet ausgewiesen ist. Siehe auch: Liste der Naturschutzgebiete in Trier. Trier liegt im Bereich der Landschaftsschutzgebiete Meulenwald und Stadtwald Trier und Moseltal. Als Landschaftsbestandteil sind die Gebiete Hecken bei Trier-Eitelsbach, Ehemaliger Biergarten Löwenbrauerei und am rechten Moselufer zwischen Nordbad und Zollkran der Baumbestand am Moselradweg Trier geschützt. Darüber hinaus gibt es zahlreiche Naturdenkmale in Trier. Kultur Als Stadt in der Großregion nahm Trier mit der Konstantinausstellung am Programm des Europäischen Kulturhauptstadtjahres 2007 teil. Die Ausstellung Nero – Kaiser, Künstler und Tyrann wurde 2016 veranstaltet. Anlässlich des 200. Geburtstages von Karl Marx im Jahr 2018 veranstaltete man vom 5. Mai bis 21. Oktober 2018 die Große Landesausstellung Karl Marx 1818–1883. Leben. Werk. Zeit. sowohl im Rheinischen Landesmuseum Trier als auch im Stadtmuseum Simeonstift Trier samt weiteren Ausstellungen im Museum Karl-Marx-Haus und im Museum am Dom. Bei der Landesausstellung Der Untergang des Römischen Reiches vom 25. Juni bis 27. November 2022 mit über 205.000 Besuchern waren etwa 700 Exponate aus 130 Museen und 20 Ländern an den Standorten Rheinisches Landesmuseum Trier, Stadtmuseum Simeonstift Trier und Museum am Dom zu sehen. Für das Jahr 2025 ist die Landesausstellung Marc Aurel – Kaiser, Feldherr, Philosoph geplant. Theater Theater Trier (Oper, Operette, Musical, Ballett, Schauspiel) mit Studio-Bühne Antikenfestspiele Trier (1998 bis 2010) Kleines Volkstheater Trier (Laienschauspiel in Trierer Mundart seit 1990) Museen Rheinisches Landesmuseum (u. a. Nachbildung der Igeler Säule, Antike Fundstücke, Mosaikfußböden, Neumagener Weinschiff) Bischöfliches Dom- und Diözesanmuseum Stadtmuseum Simeonstift (u. a. Stadtmodell: Trier um 1800) Karl-Marx-Haus Spielzeugmuseum (Blechspielzeug u. a.) Schatzkammer der Stadtbibliothek Trier (Handschriften, Gutenberg-Bibel, Coronelli-Globen, Karten, Glasmalerei) Volkskunde- und Freilichtmuseum Roscheider Hof (liegt in Konz direkt an der Gemarkungsgrenze zu Trier und wurde 1973 u. a. vom Landkreis Trier-Saarburg und den Städten Trier und Konz gegründet) Haus des Waldes (Waldmuseum) beim Drachenhaus im Weißhauswald, Wildgehege, Waldlehrpfad (Trier-Pallien) Verkehrsmuseum Trier Bildende Kunst Kunstvereine Kunstverein Trier Junge Kunst G. B. KUNST, Gesellschaft für Bildende Kunst Trier Galerien Galerie Junge Kunst Galerie Kaschenbach Musik Chöre Orchester Philharmonisches Orchester der Stadt Trier Collegium Musicum des Bildungs- und Medienzentrums im Palais Walderdorff Collegium Musicum der Universität Trier „da capo“ Orchester Ehrang 1999 e. V. Reservistenmusikzug Trier 1966, der älteste Reservistenmusikzug Deutschlands Musikfestivals Electronic River im Rahmen des Zurlaubener Heimatfestes (seit 2011) Internationale Orgeltage im Trierer Dom Mosel Musikfestival mit nationalen und internationalen Stars und Orchestern Sommerzyklus der Orgelkonzerte in der Konstantinbasilika Summerblast Festival in der SWT-Arena (bis 2018 im Jugend- und Kulturzentrum Exzellenzhaus) Karneval Der Trierer Karneval gehört zu den größten Karnevalsfesten in Rheinland-Pfalz, womit Trier zu den großen rheinischen Karnevals-, Fastnachts- und Faschingshochburgen zählt. Der älteste und größte Trierer Karnevalsverein ist die Karnevalsgesellschaft Heuschreck von 1848. Jugendzentren Jugendzentren existieren in Trier-Mitte/Gartenfeld (Mergener Hof/MJC), Trier-Mariahof, Trier-Euren, Trier-Süd, Trier-Kürenz und Trier-Ehrang/Quint. Außerdem war bis 2020 das in Trier-Nord beheimatete Exzellenzhaus (Exhaus) bis zur Schließung und anschließenden Insolvenz des gleichnamigen Vereins knapp 50 Jahre ein Jugendzentrum. Ein Aktionsbündnis setzt sich für die Sanierung und Wiederinbetriebnahme des Standortes ein. Kinos Im Stadtzentrum existieren zwei Kinos, das Programmkino Broadway Filmtheater und das Multiplex-Kino CinemaxX. Ergänzt wird die Kinolandschaft durch die Programme des Filmvereins F.ab! des Cineasta, des Unifilm und des Filmclubs Le Septième Art e. V. Früher gab es über zwanzig Kinos im Bereich der heutigen Stadt Trier. Die größeren davon waren das Apollo in der Saarstraße, das Capitol in der Brotstraße, das Germania (Modernes Theater) in der Fleischstraße, das Metropol in der Moselstraße oder das Neue Theater (Reichshallen-Theater) in der Simeonstraße, jeweils mit 500 oder mehr Plätzen. Veranstaltungen Größere Konzerte werden entweder in der Messeparkhalle, Europahalle oder in der SWT-Arena veranstaltet. Unter anderem in der Tufa (Kurzform für Tuchfabrik) finden kleinere Konzerte verschiedener Stilrichtungen statt. Die Kunsthalle der Europäischen Kunstakademie organisiert regelmäßig thematische Ausstellungen und Vernissagen mit Künstlern aus dem In- und Ausland sowie Podiumsgespräche, Atelierbesuche, Sommerfeste und Konzerte. Trierer Karneval Mai bis September: Trierer Sommertreff Mai bis September: diverse Heimat- und Weinfeste: Zewener Erdbeerkirmes, Kürenzer Kirmes Mai: Europa-Volksfest im Messepark Juni: Altstadtfest (letztes Wochenende im Juni), Peter-und-Paul-Messe Juli: Christopher Street Day Juli: Zurlaubener Heimatfest (auch Zurlaubener Moselfest genannt) August: Olewiger Weinfest August: Heiligkreuzer Brunnenfest August: Bildstockfest Trier-Feyen August: Trierer Blumentage August: Ehranger Markt September: Pfalzeler Kirmes Oktober: Trierer Weinmarkt von Mosel-Saar-Ruwer Ende Oktober/Anfang November: Allerheiligenmesse November/Dezember: Weihnachtsmarkt in der Innenstadt Dezember/Januar: Trierer Weihnachtszirkus auf dem Messegelände Sport Gemäß der Sportvereinsbefragung 2012 gibt es in Trier 112 Sportvereine. In den 67 Vereinen, die sich an der Befragung beteiligten, sind insgesamt 21.297 Sportler organisiert, dabei sind Frauen mit 39,7 % unterrepräsentiert. Mitgliederstärkster Verein ist der Post-Sportverein Trier (aus dem Jahr 1929) mit 3300 Mitgliedern. Rund 83 Prozent aller Funktionsträger in den befragten Vereinen sind ehrenamtlich tätig. Beliebteste Sportarten sind Fußball bei den Männern und Turnen bei den Frauen. Ballsport Die Fußballmannschaft Eintracht Trier brachte es 1998 im DFB-Pokal bis ins Halbfinale und verpasste nach einem Elfmeterschießen nur knapp die Teilnahme am Europapokal. Im Sommer 2002 schaffte sie nach langer Abstinenz den Aufstieg in die Zweite Bundesliga, stieg aber 2005 wieder in die Regionalliga und ein Jahr darauf in die Oberliga ab. In der Saison 2023/24 spielt der Verein in der Oberliga Rheinland-Pfalz/Saar. In der Basketball-Bundesliga war Trier von 1990 bis 2015 mit dem TVG Trier, später TBB Trier, vertreten. Zu den größten Erfolgen zählt der zweimalige Gewinn des Deutschen Pokals 1998 und 2001. 2015 wurde die Mannschaft nach einer Insolvenz aufgelöst. Den Startplatz in der 2. Bundesliga ProA übernahm die neu gegründete Mannschaft Gladiators Trier. Die Damenhandballmannschaft des DJK/MJC Trier („Die Miezen“) spielte von 2000 bis 2015 in der 1. Bundesliga und errang 2003 die deutsche Meisterschaft. Damenhandball- und Basketballmannschaft tragen ihre Heimspiele in der SWT-Arena aus. Die Rollstuhlbasketball-Mannschaft Trier Dolphins spielt ebenfalls in der 1. Bundesliga, sie trägt ihre Heimspiele in der Mäusheckerhalle aus. Weiterhin etablierten sich in Trier auch amerikanische Sportarten. Das Baseballteam der Trier Cardinals gewann in den Jahren 1995 und 1996 die deutsche Meisterschaft. Nach Rückzug von Sponsoren begann allerdings bald darauf ein langer Niedergang. Zurzeit spielen sie in der Landesliga des Südwestdeutschen Baseball- und Softball-Verbandes e. V. (SWBSV). Das Mixed-Softball Team belegte 2007 den dritten Platz in der inoffiziellen Deutschen Softball Mixed Meisterschaft. Als weitere amerikanische Sportart ist American Football mit zwei Mannschaften in der Stadt vertreten. Bereits 1990 wurden die Trier Stampers des Post-Sportvereins Trier gegründet, die bis zu ihrer Neugründung 1998 noch den Namen Trier Saints trugen. Sie verpassten 1999 nur knapp den Einstieg in die 2. Bundesliga. In den beiden vergangenen Spielzeiten (2013/2014) konnte das Herrenteam die Meisterschaften gewinnen. Zurzeit spielt die Herrenmannschaft in der Regionalliga, die Jugendmannschaft in der Jugendoberliga. Ein weiteres Football-Team sind die Trier Wolverines, die im Januar 2008 gegründet wurden und mit ihrem Jugend-Team im selben Jahr den zweiten Tabellenplatz der Jugendaufbauliga erreichten. Im Jahr 2009 etabliert sich die neugegründete Herrenmannschaft der Wolverines. Der Verein geht regelmäßig mit ihrem American-Football-Magazin GRIDIRON über den lokalen Fernsehsender OK54 auf Sendung und berichtet über die Rheinland-Pfalz-Liga und American-Football im Allgemeinen. Des Weiteren gibt es eine Rugby-Mannschaft, die in der 3. Bundesliga Süd-West spielt. Sie spielt für den FSV Trier-Tarforst. Motorsport Im August wurde in Trier und Umgebung von 2000 bis 2016 die Rallye Deutschland ausgetragen, die seit 2002 zur Rallye-Weltmeisterschaft zählt. Das Internationale Trierer Bergrennen wurde von 1971 bis 2011 vom Racing Team Trier 1967 e. V. veranstaltet und war seit 1991 ein Lauf zur Europa-Bergmeisterschaft. Sonstiger Sport Der RV Treviris Trier ist der Heimatverein von Richard Schmidt, der in den Jahren 2009 bis 2021 mit dem Deutschland-Achter Olympia- und WM-Medaillen gewann. In der Kegel-Bundesliga (Schere) wurde der Kegelclub Domstein Trier mehrfach Deutscher Meister. Der Schachverein SG Trier 1877 gehörte von 2007 bis 2017 der Schachbundesliga an. Die Trierer Go-Sektion des Deutschen Go Bundes spielt als gemeinsames Team mit Luxemburg (TriLux) in der 2. Bundesliga. Die Trierer Go-Gruppe zeichnet sich vor allem durch eine erfolgreiche Jugendarbeit aus, aus der sowohl der deutsche Jugendmeister 2014 als auch die deutschen Schulmannschaftsmeister der Jahre 2014 und 2015 (Friedrich-Wilhelm-Gymnasium) hervorgingen. Der Silvesterlauf Trier findet regelmäßig am 31. Dezember statt. Er gilt als einer der bestbesetzten Jahresabschlussläufe in Europa und wird in Anlehnung an den berühmten brasilianischen Silvesterlauf „deutsches São Paulo“ genannt. Der Verein Trierer Kanufahrer 1948 (TKF) befindet sich in der Nähe der heutigen modernen Römerstadt-Jugendherberge im ehemaligen Jugendherbergshaus (Hans-Karl-Schmitt-Haus). Er feiert nationale und internationale sportliche Erfolge im Kanusport. Der Fallschirmsportclub Trier e. V., ansässig auf dem Flugplatz Trier-Föhren, wurde 1975 gegründet. Der PBC Trier spielte zeitweise in der 1. Poolbillard-Bundesliga. Schwimmbäder sind Das Bad an den Kaiserthermen, das Freibad Nord und das Freibad Süd. Inklusion 2021 bewarb sich die Stadt als Host Town für die Gestaltung eines viertägigen Programms für eine internationale Delegation der Special Olympics World Summer Games 2023 in Berlin. 2022 wurde sie als Gastgeber für Special Olympics Panama ausgewählt. Die Delegation bestand aus 18 Personen. Damit wurde die Stadt Teil des größten kommunalen Inklusionsprojekts in der Geschichte der Bundesrepublik mit mehr als 200 Host Towns. Wirtschaft und Infrastruktur Im Jahre 2016 erbrachte Trier, innerhalb der Stadtgrenzen, ein Bruttoinlandsprodukt (BIP) von 4,741 Milliarden € und belegte damit Platz 65 innerhalb der Rangliste der deutschen Städte nach Wirtschaftsleistung. Das BIP pro Kopf lag im selben Jahr bei 42.142 € (Rheinland-Pfalz: 34.118 €, Deutschland 38.180 €). Das BIP je Erwerbsperson beträgt 58.640. 2016 wuchs das BIP der Stadt nominell um 0,3 %, im Vorjahr betrug das Wachstum 4,7 %. In der Stadt waren 2016 ca. 80.900 Erwerbstätige beschäftigt. Die Arbeitslosenquote lag im Dezember 2018 bei 4,3 % und damit leicht über dem Durchschnitt von Rheinland-Pfalz von 4,1 % (im benachbarten Landkreis Trier-Saarburg betrug sie 2,5 %). Verkehr Innerstädtischer Individualverkehr Der Individualverkehr in Trier verläuft hauptsächlich auf den vorhandenen Bundes-, Landes- und Kreisstraßen. Das Mobilitätskonzept Trier 2025 wurde im Jahre 2013 und die Fortschreibung dieses Konzeptes wurde 2018 vom Stadtrat Trier beschlossen. In einem 10-Jahreskonzept der Straßenbaumaßnahmen wurden folgende Schwerpunkte festgelegt, die einer jährlichen Überprüfung unterliegen: Verschiedene Verkehrsmaßnahmen in Trier-West (Priorität: 1), davon ist der Verkehrskreisel Römerbrückenkopf West bereits realisiert worden; Neuanbindung des Aveler Tals über die Straße Am Grüneberg und über die Bahngleise bis zur Dasbachstraße und zur Bundesautobahn 602 (Priorität: 2a) Ausbau von Aul- und Arnulfstraße in Trier-Süd (südlicher Tangentenring) (Priorität: 2b) Moselbahndurchbruch (zwischen Kürenzer Straße und Metternichstraße) (Priorität: 3), ab 2027; Wasserwegdurchbruch (zwischen Herzogenbuscher Straße und Zurmaiener Straße) (nördlicher Tangentenring) (Priorität: 4), nicht im 10-Jahres-Plan enthalten; Sonderprojekt Neugestaltung des Bahnhofsvorplatzes des Hbf Trier im Zuge der Umsetzung des ÖPNV-Konzeptes RLP-Nord Überregionaler Straßenverkehr Folgende Autobahnen führen von/nach Trier: Luxemburg (dort Autoroute 1 )–Trier führt von Kenn über die Moselbrücke Ehrang nach Trier-Ehrang und durch den Pfalzeler Wald zur A 64 führt vom Verteilerkreis Trier zum Autobahndreieck Moseltal und dort zur A 1 In der Diskussion stehen der Moselaufstieg und die Meulenwaldautobahn als West- und Nordumfahrungen Triers. Folgende Bundesstraßen führen durch das Stadtgebiet: Grenzübergang Wasserbillig (L)–Trier–Koblenz Grenzübergang Hanweiler (F)–Saarbrücken–Trier–Bitburg–Köln Trier–Schweich–Mehring–Bernkastel-Kues–Zell–Alf Trier–Losheim am See–Heusweiler–Riegelsberg–Saarbrücken Ehrang–Kordel–Welschbillig–Helenenberg Öffentlicher Personennahverkehr Der öffentliche Personennahverkehr wird zum Großteil durch die Buslinien der Stadtwerke Trier (SWT) betrieben. Zudem verkehren in Trier zahlreiche unvertaktete Regionalbuslinien verschiedener Busunternehmen. Auf allen Trierer Buslinien gilt der Tarif des Verkehrsverbundes Region Trier (VRT). Von 1890 bis 1951 existierte außerdem die Straßenbahn Trier. Sie wurde durch den 1940 eingeführten Oberleitungsbus Trier ersetzt, der wiederum 1970 eingestellt wurde. Schienenverkehr Der Hauptbahnhof befindet sich im nordöstlichen Bereich der Innenstadt zwischen den Bezirken Mitte-Gartenfeld und Nord. Trier ist nach Norden über die Moselstrecke an Koblenz und über die Eifelstrecke an Köln angebunden; nach Süden führen die Trierer Weststrecke nach Luxemburg, die Saarstrecke nach Saarbrücken und die Obermoselstrecke nach Perl bzw. Metz (Frankreich). Durchgehende Züge fahren von Koblenz nach Saarbrücken und weiter nach Mannheim oder Luxemburg sowie montags bis freitags von Wittlich nach Perl, ansonsten ist der Trierer Hauptbahnhof in der Regel Endstation. Weitere Haltepunkte sind im Nordwesten der Innenstadt Quint, Ehrang-Ort, Ehrang und Pfalzel, im Süden Trier Süd. Vom 11. Dezember 2005 bis 10. Dezember 2011 verfügte die Stadt Trier über einen ICE-Direktanschluss nach Berlin. Direkt nördlich des Hauptbahnhofs liegt ein Betriebsbahnhof der Deutschen Bahn (ehemals Bahnbetriebswerk Trier). In Ehrang befindet sich ein ehemaliger Rangierbahnhof, der von der Deutschen Bahn AG jedoch noch in vermindertem Umfang als Güterbahnhof genutzt wird. Im Juni 2008 beschloss das Land Rheinland-Pfalz, dass die Trierer Weststrecke zwischen Trier-Ehrang und Trier-Zewen für den Personenverkehr reaktiviert werden soll, um vor allem die Anschlüsse für Pendler nach Luxemburg zu verbessern. Außerdem ist an der Moselstrecke die Errichtung zweier neuer Bahnhaltepunkte Trier Nord (voraussichtlich Höhe Dasbachstraße) und Trier-Kaiserthermen (voraussichtlich Höhe Hermesstraße) geplant. Radverkehr Das Radwegnetz ist im Trierer Stadtgebiet mäßig ausgebaut. Insbesondere Fahrradfahrer, die sich im Stadtbereich bewegen, müssen oft auf enge, vielbefahrene Straßen ausweichen und die entsprechenden Sicherheitsrisiken in Kauf nehmen. Der ADFC bewertete die Situation für Radfahrer in Trier 2010 noch als „mangelhaft bis ausreichend“. Jedoch bekam Trier 2014 im ADFC-Fahrrad-Klima-Test den „3. Aufholer“-Preis in der Stadtgrößengruppe 100.000 bis 200.000 Einwohner und liegt nun auf Platz 29 von 37 (untere 22 %) (Vgl. 2012: 39 von 42: untere 8 %). Im Jahr 2015 wurde das Radverkehrskonzept Trier 2025 beschlossen. Der Mosel-Radweg führt durch die Stadt und ist Teil der internationalen Radwanderroute Velo Tour Moselle. In Trier-Ehrang startet der Kyll-Radweg in die Eifel und in Trier-Ruwer der Ruwer-Hochwald-Radweg in den Hunsrück. Der Nahe-Hunsrück-Mosel-Radweg verläuft zwischen Bingen am Rhein und Trier. Schifffahrt Mit der Kanalisierung der Mosel zwischen 1958 und 1964 zu einer internationalen Großschifffahrtsstraße ist Trier mit dem Industriegebiet Lothringen, dem Land Luxemburg, den westdeutschen Industriezentren und den Nordseehäfen in den Niederlanden und Belgien über die Binnenschifffahrt verbunden. Trier ist Sitz der 1962 gegründeten Moselkommission zur Regelung aller Angelegenheiten der Schifffahrt auf der Mosel. Die 1962 gegründete Trierer Hafengesellschaft stellte 1965 den Handels- und Industriehafen in Trier-Ehrang fertig. Mit der Eröffnung am 26. Mai 1965 wurde Trier Hafenstadt. Der Trierer Hafen ist ein Umschlagplatz für den Güterverkehr, der sich hauptsächlich aus dem Transport von Erd- und Mineralöl sowie Erzen und Metallabfällen zusammensetzt. Eine Erweiterung der Hafenanlage erlaubt seit 1998 auch den Umschlag von Containern. Die Hafenanlage ist direkt an das Straßennetz und das Schienennetz angeschlossen. Touristische Attraktionen sind die Moselfahrten auf Passagierschiffen sowohl nach Luxemburg als auch in Richtung Koblenz. Das Wasserstraßen- und Schifffahrtsamt Trier existierte seit 1952 und kam 2019 durch eine Zusammenlegung mit den Ämtern in Koblenz und Saarbrücken zum Wasserstraßen- und Schifffahrtsamt Mosel-Saar-Lahn mit einem Standort in Trier am Pacelliufer. Luftverkehr Nächstgelegener Flughafen für nationale und internationale Verbindungen ist der Flughafen Luxemburg, rund 40 Kilometer entfernt. Etwa 25 Kilometer vom Stadtzentrum entfernt befindet sich außerdem der von Trier-Euren (von 1910 bis 1977 in Betrieb) nach Föhren verlegte Trierer Flugplatz. Zum Flughafen Frankfurt-Hahn sind es ca. 70 Kilometer und der Flughafen Saarbrücken ist ca. 105 km entfernt. Wanderwegenetz Im rheinland-pfälzischen Wanderwegenetz bildet Trier einen Knotenpunkt. Neben dem Eifelsteig hat hier auch der Saar-Hunsrück-Steig seinen Start- bzw. Endpunkt. Eine Traumschleife am Saar-Hunsrück-Steig ist die Trierer Galgenkopftour, ein 15,8 km langer Höhenweg, der u. a. zum Naumeter Kopf führt. Der Moselhöhenweg verläuft sowohl auf der Eifelseite als auch auf der Hunsrückseite durch das Stadtgebiet von Trier. Seit April 2014 wird Trier zusätzlich über den im Wechsel auf beiden Seiten des Moseltals verlaufenden Moselsteig angebunden. Der Ausoniusweg von Trier nach Bingen am Rhein ist seit Juni 2013 auch als Hunsrücker Jakobsweg gewidmet. Park and Ride Park-and-ride-Parkplätze stehen sowohl im Südwesten (Messepark) als auch im Norden (Riverside/Verteilerkreis) der Stadt zur Verfügung. Bei größeren Veranstaltungen dient zudem der Parkplatz der Hochschule Trier am Schneidershof als Park-and-ride Parkplatz. An den Adventssamstagen werden drei spezielle kostenlose P+R-Linien im 10-Min-Takt angeboten (die Finanzierung erfolgt durch die City-Initiative), ansonsten werden die Parkplätze durch den normalen Linienverkehr bedient. Brücken Über fast zwei Jahrtausende führte der Weg zum linken Moselufer nur über die Römerbrücke, deren erste Version 18 v. Chr. / 17 v. Chr. erbaut wurde. Erst Anfang des 20. Jahrhunderts folgte die Kaiser-Wilhelm-Brücke als zweite Flussüberquerung; im Jahr 1973 kam die Konrad-Adenauer-Brücke hinzu, welche seitdem moselaufwärts die letzte Straßenbrücke komplett innerhalb Deutschlands ist (die nächste Brücke führt 18 km flussaufwärts von Wellen nach Grevenmacher). Die 1949 errichtete Pfeiffersbrücke in Ehrang überbrückt die Bahnlinie Koblenz-Trier und verbindet die Servaisstraße mit der B 53. Außerdem gibt es eine Eisenbahnbrücke zwischen Pfalzel und dem Industriegebiet Nord (Moselstrecke Trier-Koblenz), im Volksmund „Pfalzeler Brücke“ genannt, die auch Fußgängern und Radfahrern die Moselüberquerung ermöglicht. Im Norden der Stadt liegt die Moselbrücke Ehrang der Bundesautobahn 64a zwischen Trier-Ehrang und Kenn, die auch Fußgängern und Radfahrern die Moselüberquerung ermöglicht. Sie verbindet A 602 und B 53, hat jedoch aufgrund ihrer Lage auch eine innerstädtische Erschließungsfunktion. Die Konzer Moselbrücke führt von Konz nach Trier-Zewen. Sie verbindet die Saarstrecke und die Obermoselstrecke mit der Trierer Weststrecke. In Trier-Pallien überspannt die Napoleonsbrücke das Tal des Sirzenicher Baches. Sie ist Teil der Bundesstraße 51. Die Aulbrücke in St. Matthias überquert die Bahnstrecke zwischen dem Trierer Südbahnhof und Konz-Karthaus. Weitere Brücken sind die Biewerbachtalbrücke oder die Gartenfeldbrücke. Öffentliche Einrichtungen Trinkwasserversorgung Die Gewinnung, Aufbereitung und Verteilung des Trinkwassers wird von den Stadtwerken Trier übernommen. In zwei Wasserwerken wird das Rohwasser aus unterschiedlichen Quellen aufbereitet: Im Wasserwerk Irsch aus der Riveristalsperre und im Wasserwerk Kylltal aus 24 Brunnen, die das Grundwasser der Bitburg-Trierer Mulde fördern. Für die Aufbereitung des Talsperrenwassers kommt im Wasserwerk Irsch Ultrafiltration zur Reinigung des Wassers zum Einsatz. Anschließend erfolgt eine Filtration über Kalkstein, um das Wasser aufzuhärten. Die Desinfektion erfolgt seit 2015 über UV-Lampen. Das Wasser ist mit einer Gesamthärte von 0,8 mmol/l (4,2 °dH) dem Härtebereich „weich“ zuzuordnen. Die Filtration des Grundwassers erfolgt über große Filterbecken, welche Partikel weitestgehend zurückhalten. Das Wasser ist mit einer Gesamthärte von 1,6 mmol/l (9,0 °dH) dem Härtebereich „mittel“ zuzuordnen. Das Wasserwerk Irsch übernimmt grundsätzlich die Versorgung der Stadtteile Kürenz, Gartenfeld, Olewig, Auf der Hill, Kernscheid, Irsch, Filsch, Tarforst, Trimmelter Hof und Weidengraben, sowie die Gemeinden Korlingen, Gutweiler und Sommerau. Alle anderen Stadtteile werden je nach Talsperrenstand entweder aus dem Wasserwerk Irsch oder Kylltal versorgt. Zumeist kommt das Trinkwasser des gesamten Stadtgebietes in den Monaten Februar bis September aus der Riveristalsperre. In den Wintermonaten wird der Stausee dann durch die Niederschläge erneut gefüllt. Jährlich werden insgesamt ca. 10 Mio. m³ Trinkwasser abgegeben. Im 680 km langen Leitungsnetz sind 20 Hochbehälter zur Zwischenspeicherung und zur Sicherstellung des Wasserdrucks eingebaut. Der Energiebedarf für die Trierer Trinkwasserversorgung (1,7 Mio. kWh pro Jahr) wird inzwischen vollständig durch Eigenenergieerzeugung gedeckt. Dazu gibt es mehrere Turbinen im Netz und Photovoltaikanlagen auf den Dächern von Hochbehältern, Pumpwerken und dem Wasserwerk Irsch. Der Brutto-Verbrauchspreis liegt bei 1,74 Euro je Kubikmeter. Wärmeversorgung Die Wärmeversorgung in Trier erfolgt größtenteils dezentral. Eine größere Fernwärmeversorgung gibt es nur im Stadtteil Mariahof, die 2,8 % (Stand: 2015/16) des Wärmebedarfs der Stadt deckt. Abwasserentsorgung Auch die Ableitung und Reinigung des anfallenden Abwassers fällt in den Zuständigkeitsbereich der Trierer Stadtwerke. Das Kanalnetz hat eine Länge von 499 Kilometern, 386 Kilometer davon im Mischsystem (77 %). Im Stadtgebiet gibt es 13.300 Schachtbauwerke und 16.000 Straßenabläufe („Gullys“). Der Anschlussgrad an die Kanalisation liegt bei 99,9 %. Die Abwasserreinigung geschieht im Hauptklärwerk in der Metternichstraße (erbaut 1959, 170.000 Einwohnerwerte) und im Klärwerk Trier-Ehrang (erbaut 1984). Wie auch bei der Trinkwasserversorgung ist das Hauptklärwerk Trier inzwischen energieautark. 2016 standen einem Stromverbrauch von 3,05 Mio. kWh eine Energieerzeugung von 3,28 Mio. kWh gegenüber. Zum einen wurde die Autarkie durch die Einsparung von Energie durch Prozessoptimierung, intelligente Steuerung und energieeffizientere Technik erreicht, zum anderen durch Erzeugung in zwei Blockheizkraftwerken, die das anfallende Klärgas verstromen, durch Photovoltaik und durch Turbinen im Ablauf des Klärwerks. Ämter, Behörden und Städtische Einrichtungen Trier ist Sitz einer von zwei Bundeskassen sowie einer Nebenstelle der Bundesanstalt für Immobilienaufgaben. Justizbehörden sind das Amtsgericht Trier, das Landgericht Trier, das Arbeitsgericht Trier, das Sozialgericht Trier, das Verwaltungsgericht Trier, die Staatsanwaltschaft Trier oder die Justizvollzugsanstalt Trier in Trier-Euren. In Trier befinden sich eine Bundespolizeiinspektion, das Polizeipräsidium Trier, die Polizeidirektion Trier, das Technische Hilfswerk Trier sowie die Wehrtechnische Dienststelle für landgebundene Fahrzeugsysteme, Pionier- und Truppentechnik der Bundeswehr in Trier-Kürenz (420 Beschäftigte), der Rechnungshof Rheinland-Pfalz (Hauptsitz Speyer) besitzt eine Außenstelle. Weitere Behörden sind das Finanzamt Trier mit 400 und der Zweckverband A.R.T. mit 300 Beschäftigten. Weitere Einrichtungen sind die Feuerwehr Trier, die Handwerkskammer Trier oder das Studierendenwerk Trier. Medizinische Versorgung Die Stadt Trier übernimmt für den ehemaligen Regierungsbezirk Trier sowie die Hochwaldregion und Teile des Saarlands die Funktion als medizinisches Oberzentrum mit Leistungen der Maximalversorgung und der spezialisierten Facharztversorgung im ambulanten Sektor. In den Mittelzentren der Umgebung sind lediglich noch Krankenhäuser der Grund- und Regelversorgung mit 100 bis rund 300 Betten angesiedelt, von denen einige mittelfristig von Schließung bedroht sind. Im Bereich der Stadt Trier gibt es drei Kliniken. Veränderungen in den letzten Jahren waren die Übernahme der Klinik in Ehrang (nach Hochwasserschäden im Jahr 2021 geschlossen) und des ehemaligen evangelischen Elisabeth-Krankenhauses durch das Mutterhaus im Jahr 2016 und die Schließung des Herz-Jesu-Krankenhauses im Jahr 2006. Insgesamt verfügen die Kliniken der Stadt heute über etwa 1500 Betten. Im Mittelalter gab es in Trier außerdem unter anderem das St.-Jakobs-Hospital und die Leprosorien St. Jost. Klinikum Mutterhaus der Borromäerinnen, 667 Betten, 2500 Beschäftigte Klinikum Mutterhaus der Borromäerinnen Nord (ehemals Elisabeth-Krankenhaus; 182 Betten) Krankenhaus der Barmherzigen Brüder (Brüderkrankenhaus), 612 Betten, 2400 Beschäftigte Geriatrische Rehabilitationsklinik St. Irminen, 80 Betten, eine Sozialeinrichtung der Vereinigten Hospitien Tierheim Trier In Trier-Zewen auf dem Heidenberg besteht ein Tierheim, das durch den Tierschutzverein Trier und Umgebung e. V. betrieben wird. Es ist zuständig für Tiere aus der gesamten Region Trier. Die vier Landkreise der Region und die kreisfreie Stadt Trier sind Miteigentümer des Grundstücks, auf dem sich das Tierheim befindet. Unternehmen Trier ist mit den beiden dort ansässigen Zigarettenherstellern JT International und Heintz van Landewyck eines der Zentren der deutschen Tabakwarenindustrie. Auch der Weinbau bzw. die Weiterverarbeitung spielt eine bedeutende Rolle. Neben diversen Weingütern haben die drei Sekthersteller Schloss Wachenheim AG, Peter Herres Wein- und Sektkellerei und Bernard-Massard Sektkellerei GmbH in Trier ihren Sitz. Regional tätige Banken sind die Sparkasse Trier und die Volksbank Trier. Weiterhin haben in Trier ihren Haupt- bzw. Deutschlandsitz: Steil Holding GmbH (Recyclingunternehmen) Landal GreenParks (Tourismusunternehmen) Triwo, Eigentümer und Betreiber mehrerer Flugplätze und Gewerbeparks Weitere bekannte Unternehmen mit langer Existenz sind oder waren: Steil-Kranarbeiten, Gründung 1924 Leyendecker HolzLand GmbH & Co. KG, gegründet 1860, 130 Beschäftigte HEES + PETERS GmbH, gegründet 1948, 150 Beschäftigte Mercedes-Hess GmbH & Co. KG, Gründung 1913, ab 2022: Merbag Holding. Joh. Rendenbach jr. GmbH & Co. KG, Gründung 1871; eine der letzten Gerbereien, die nach dem traditionellen Eichenloh-Grubengerbverfahren arbeitete; 2022 Betriebsende, die Markenrechte gehen an ein Unternehmen in Viechtach. Der Verlag Trierischer Volksfreund gibt die lokale Tageszeitung heraus. Er gehört zur Rheinischen Post Mediengruppe. Siehe auch: Größte Unternehmen in der Region Trier Medien Seit Einstellung der Trierischen Landeszeitung im Jahr 1974 ist der Trierische Volksfreund (TV) die einzige regionale Tageszeitung. Daneben wird die „Rathauszeitung“ als behördliches Mitteilungsblatt für amtliche Bekanntmachungen kostenlos an alle städtischen Haushalte ausgegeben. Ebenso kostenfrei ist der Wochenspiegel, der als Wochenzeitung an alle Haushalte verteilt wird. Im Bereich Onlinemedien gibt es mehrere einer gewissen Fluktuation unterliegende Onlineportale/Stadtmagazine wie 2016 5vier.de, lokalo.de oder trier-reporter.de. Eines davon war von 2007 bis 2014 die lokale Nachrichtenseite „16vor“, die darüber hinaus von 2014 bis 2015 als gedrucktes Magazin erschien. Des Weiteren gibt es ein Studio des öffentlich-rechtlichen Südwestrundfunks (SWR), der das regionalisierte Radioprogramm SWR4 Rheinland-Pfalz zeitweise aus Trier sendet sowie ein Regionalstudio des landesweiten privaten Hörfunksenders RPR1. Das Bürgerfernsehen OK54 ist aus dem 1987 gegründeten Offenen Kanal Trier hervorgegangen. Zum 13. November 2010 hat das Cityradio Trier die Sendefrequenzen von 884 Trier übernommen. Der private Radiosender nutzt die ehemals von Antenne West belegten Frequenzen 88,4 MHz Trier-Petrisberg, 94,7 MHz Wittlich und 87,8 MHz Welschbillig. Gesendet wird ein „Adult Contemporary“-Format, das in Trier und Umgebung zu empfangen ist. Sendeanlagen in Trier: Fernmeldeturm Trier-Petrisberg, SWR-Sender Trier-Markusberg, Sender Trier Bildung Hochschulen Universität Trier, gegründet 1473, 1798 geschlossen und 1970 als Teil der Universität Trier-Kaiserslautern neu gegründet, 1975 verselbständigt Hochschule Trier, gegründet 1971 durch Vereinigung mehrerer Vorgängereinrichtungen als Abteilung Trier der Fachhochschule Rheinland-Pfalz. Verselbstständigt 1996 als Fachhochschule Trier. Seit 12. September 2012 Hochschule Trier, mit Standorten in Trier, Birkenfeld und Idar-Oberstein. Theologische Fakultät Trier, organisatorisch unabhängige Hochschule in enger Kooperation mit der Universität Trier (unter anderem Nutzung der Räumlichkeiten und Dienstleistungen der Universität) Gymnasien Grundschulen Realschulen und Realschulen plus Weitere Schulen Förderschulen und Schwerpunktschulen Akademien Konversion Im Rahmen des Abzugs französischer Streitkräfte wurden die frei gewordenen Flächen zur Konversion genutzt. Das bisher größte Projekt dieser Art wurde Mitte der 2000er-Jahre auf dem Petrisberg umgesetzt, das neben einem Gebiet zum Wohnen und Arbeiten (Wissenschaftspark „WIP“) auch umfangreiche Grün- und Freizeitflächen umfasst, die im Rahmen der Landesgartenschau 2004 entstanden sind. Das von der Kernstadt im Tal sichtbare charakteristische historische Bauensemble blieb erhalten. Das ehemalige Castel Feuvrier zwischen Mosel und Zurmaiener Straße wurde mit einigen Jahren Verzögerung von einem privaten Investor ab 2017 mit einem Hotel sowie Mietwohnungen bebaut. Darüber hinausgehende Pläne wie eine Gastronomie am Moselufer und ein Moselsteg scheiterten. Im Castelnau-Gelände in Feyen entstanden ein Einkaufszentrum und Wohneinheiten. Neben dem ehemals militärisch genutzten Gelände befassen sich Konversionsprojekte in Trier auch mit brachliegenden Bahn- und Gewerbeflächen, sowie mit der Umnutzung frei gewordener Gebäude, die zuvor von der Öffentlichen Hand oder den Religionsgemeinschaften genutzt wurden. Persönlichkeiten Panoramen Trier als Namensgeber für andere Orte New Trier ist ein Ort im Dakota County in Minnesota, Vereinigte Staaten. New Trier Township ist eine Township im Cook County, Illinois, Vereinigte Staaten. Die New Trier Highschool gehört zum New Trier Township und führt in ihrem Logo eine Abbildung der Porta Nigra. Neu-Trier war eine Missionsstation in der ehemaligen deutschen Kolonie Deutsch-Ostafrika. Heute: Mbulu (Iraqw Imboru, deutsch früher Neu-Trier) ist Hauptort des gleichnamigen Distrikts in der Region Manyara in Tansania. Trivia Die Ortsnecknamen für die Trierer sind Trierer Peifi oder Trierer Hoani. Siehe auch Kategorie: Straße in Trier Liste der Straßen und Plätze in Trier Staustufe Trier und Moselkraftwerk Trier Literatur Allgemein Jort Blazejewski, Stephan Laux, Nina Schweisthal (Hrsg.): Quellen zur Geschichte der Stadt Trier in der frühen Preußenzeit (1815–1850) (= Publikationen aus dem Stadtarchiv Trier, Bd. 4). Verlag für Geschichte und Kultur 2018, ISBN 978-3-945768-04-4 (941 Seiten). Gabriele B. Clemens, Lukas Clemens: Geschichte der Stadt Trier. München 2007, ISBN 978-3-406-55618-0. Lukas Clemens: Trier – Eine Weinstadt im Mittelalter. (= Trierer Historische Forschungen. Band 22). Trier 1993, ISBN 3-89890-018-5. Elisabeth Dühr, Christl Lehnert Leven (Hrsg.): Unter der Trikolore, Trier in Frankreich – Napoleon in Trier (2 Bände). Trier 2004. Jens Fachbach, Stefan Heinz, Georg Schelbert, Andreas Tacke (Hrsg.): Architekturführer Trier. Imhof, Petersberg 2015, ISBN 978-3-86568-728-9. Marcello Ghetta: Spätantikes Heidentum. Trier und das Trevererland. Kliomedia, Trier 2008, ISBN 978-3-89890-119-2. Joachim Gilles, Karl-Josef Gilles: Mit Straßenbahn und Obus unterwegs durch Trier 1935 bis 1970. Auf Schienen unterwegs. Sutton 2007, ISBN 978-3-86680-223-0. Gottfried Kentenich: Die Geschichte der Stadt Trier von ihrer Gründung bis zur Gegenwart : Denkschrift zum hundertjährigen Jubiläum der Zugehörigkeit der Stadt zum preußischen Staat / hrsg. von Gottfried Kentenich. Lintz, Trier 1915. Hermann Kickton: Die Urzeit des Trierer Landes. Gesellschaft für nützliche Forschungen zu Trier, Trier 1925. Michael Matheus: Trier am Ende des Mittelalters. Studien zur Wirtschafts-, Sozial- und Verfassungsgeschichte der Stadt Trier vom 14. bis 16. Jahrhundert (= Trierer historische Forschungen, 5; Dissertation 1981). Trier 1984. Heinz Monz (Gesamtbearbeitung): Trierer Biographisches Lexikon. Verlag der Landesarchivverwaltung Rheinland-Pfalz, Koblenz 2000, ISBN 3-931014-49-5. Heinrich Silbergleit: Preußens Städte. Denkschrift zum 100-jährigen Jubiläum der Städteordnung vom 19. November 1808. Hrsg. im Auftrag des Vorstandes des Preußischen Städtetages. Berlin 1908. Rheinisches Landesmuseum Trier (Hrsg.): Trier: Augustusstadt der Treverer. Stadt und Land in vor- und frührömischer Zeit. 2. Auflage. Von Zabern, Mainz 1984, ISBN 3-8053-0792-6. Rheinisches Landesmuseum Trier (Hrsg.): Trier: Kaiserresidenz und Bischofsstadt. Die Stadt in spätantiker und frühchristlicher Zeit. 2. Auflage. Mainz 1984. Städtebuch Rheinland-Pfalz und Saarland. Band IV 3. Teilband aus Deutsches Städtebuch. Handbuch städtischer Geschichte. Im Auftrage der Arbeitsgemeinschaft der historischen Kommissionen und mit Unterstützung des Deutschen Städtetages, des Deutschen Städtebundes und des Deutschen Gemeindetages, hrsg. von Erich Keyser. Stuttgart 1964. Universität Trier (Hrsg.): 2000 Jahre Trier. 3 Bände. Spee, Trier 1996–1997. Heinz Heinen: Trier und das Trevererland in römischer Zeit. Spee, Trier 1985, ISBN 3-87760-065-4. Hans Hubert Anton, Alfred Haverkamp (Hrsg.): Trier im Mittelalter. Spee, Trier 1996, ISBN 3-87760-066-2. Kurt Düwell, Franz Irsigler (Hrsg.): Trier in der Neuzeit. Spee, Trier 1988, ISBN 3-87760-067-0. Heinrich Volbert Sauerland: Trierer Geschichtsquellen des 11. Jahrhunderts. Trier 1889. Edith M. Wightman: Roman Trier and the Treveri. Hart-Davis, London 1970. Thomas Zuche (Hrsg.): StattFührer. Trier im Nationalsozialismus. 2. Auflage. Spee, Trier 1997, ISBN 3-87760-057-3. Denkmaltopographien Weblinks Offizielle Website der Stadt Trier Dilibri – Digitale Ausgaben von Büchern über Trier Anmerkungen Einzelnachweise Ort in Rheinland-Pfalz Ort an der Mosel Kreisfreie Stadt in Rheinland-Pfalz Gemeinde in Rheinland-Pfalz Deutsche Universitätsstadt Ort mit Binnenhafen Kreisstadt in Rheinland-Pfalz Katholischer Wallfahrtsort in Rheinland-Pfalz Ortsname keltischer Herkunft Stadt als Namensgeber für einen Asteroiden
Q3138
235.788752
18942
https://de.wikipedia.org/wiki/Stress
Stress
Stress (englisch für ‚Druck, Anspannung‘; von lateinisch stringere ‚anspannen‘) bezeichnet zum einen durch spezifische äußere Reize (Stressoren) hervorgerufene psychische und physische Reaktionen bei Lebewesen, die zur Bewältigung besonderer Anforderungen befähigen, und zum anderen die dadurch entstehende körperliche und geistige Belastung. Nach dem aktuellen Allostase-Konzept kommt Stress vor allem eine zentrale Bedeutung dafür zu, sich physisch und psychisch an sich verändernde Umweltbedingungen anzupassen. Stress kann auch eine evolutive Wirkung haben mit der Folge, dass Belastungen besser ertragen oder letztlich durch eine entsprechende Stresstoleranz neutralisiert werden. Somit kann Stress durch Selektionsvorteile einzelner Individuen Adaptation und letztlich Artbildung bewirken. Durch genetische Fixierung von Merkmalen, welche Selektionsvorteile bewirken, können sich bestimmte erbliche Eigenschaften evolutiv durchsetzen. Beispiele solcher Eigenschaften sind Sukkulenz bei Pflanzen in Trockengebieten oder Sichelzellenanämie bei Menschen in Malariagebieten. Der Begriff Stress wurde erstmals von Walter Cannon (1914, zitiert nach Lazarus & Folkman, 1984) in Bezug auf Alarmsituationen verwendet (Fight-or-flight). Basierend auf diesen Arbeiten formulierte Hans Selye (1936, zitiert nach Lazarus & Folkman, 1984) Stress als körperlichen Zustand unter Belastung, welcher durch Anspannung und Widerstand gegen äußere Stimuli (Stressoren) gekennzeichnet sei – das generelle Adaptationssyndrom (GAS). Hans Selye hatte den Begriff aus der Physik entlehnt, um die „unspezifische Reaktion des Körpers auf jegliche Anforderung“ zu benennen. Stress bezeichnet in der Werkstoffkunde die Veränderung eines Materials durch äußere Krafteinwirkung: Es folgen Anspannung, Verzerrung und Verbiegung. Mit der kognitiven Wende wurde der Bewertung (Appraisal) und der Stress-Bewältigung (Coping) von psychologischem Stress eine zentrale Rolle zugewiesen (Lazarus und Folkman, 1984). Es gibt bis heute keine Einigung auf eine Definition und eine konzeptionelle Operationalisierung von Stress (Kahn und Byosiere, 1992). Je nach Konzeptualisierung des Begriffs Stress existiert eine Vielzahl von Definitionsversuchen (Väänänen u. a., in press). Das Auftreten von Stress bedarf jedenfalls einer sinnlichen Wahrnehmung des stress-auslösenden Reizes sowie einer nervlichen Weiterleitung eines solchen Reizes an eine reizverarbeitende Region des Körpers. Begleiterscheinung auf biochemischer Ebene ist dabei meist die Ausschüttung von Stresshormonen und anderen Sekreten aus Drüsen. Grundlagen Ausgangspunkt war die Auseinandersetzung eines Tiers mit einer akuten Gefahrensituation, zum Beispiel der Begegnung mit einem Fressfeind oder einem innerartlichen Aggressor oder einer physischen Gefahr wie Waldbrand oder nur einem alarmierenden Geräusch etc. Das Tier muss dann in erhöhter Handlungsbereitschaft sein, was sowohl die Bereitschaft seiner Muskulatur und des Kreislaufs als auch seine zentralnervöse Aufmerksamkeit und Entscheidungsbereitschaft betrifft. Deshalb löst z. B. die Ausschüttung des Nebennierenhormons Adrenalin eine vegetative Wirkungskette aus, die letztlich den Blutdruck und den Blutzucker sowie den allgemeinen Muskeltonus erhöht. Im Gehirn wird die relativ langsame Verarbeitung des Großhirns in seinem Einfluss zurückgedrängt, und schematische Entscheidungsmuster des Stammhirns werden mit Vorrang genutzt. Dies geschieht durch veränderte Ausschüttungsmuster von dämpfendem Serotonin und anregendem Noradrenalin in den betreffenden Gehirnteilen. Das Tier kann dann rascher, wenn auch mit größerer Fehlerquote, reagieren. Bei der präzisen Einschätzung der Situation durch das Großhirn käme eine angemessene Reaktion in der akuten Gefahrensituation oft lebensgefährlich langsam zustande. Aus diesem Grund erfolgt die anfängliche Feststellung einer Gefahrensituation vielfach nicht bevorzugt über das Großhirn, sondern über schematisierte Auslösemuster, auf welche evolutionsgeschichtlich alte Stammhirn-Mechanismen reagieren: plötzlicher Schall oder plötzlicher Wechsel der Helligkeit, schrille Laute (Schreie) etc. Solche Auslösemuster kommen im modernen Alltag vieler Menschen häufig vor. Sie werden dann unspezifische Stressoren genannt und erzeugen bei jedem Auftreten eine körperliche Reaktion auf die vermeintliche Gefahr (Fight-or-flight). Bei Langzeitstress werden noch weitere Stresshormone ausgeschüttet. Neben den klassischen Stresshormonen spielen in der Stressreaktion auch körpereigene Neuropeptide, wie Substanz P, Opioidpeptide u. a., eine Rolle. Steht ein Mensch dauerhaft unter Stress, kann es aufgrund der körperlichen Reaktionen zu gesundheitlichen Schäden kommen (Allgemeines Anpassungssyndrom). Stress beim Menschen Definition: Unter Stress versteht man die Beanspruchung (Auswirkung der Belastungen) des Menschen durch innere und äußere Reize oder Belastungen (objektive, auf den Menschen einwirkende Faktoren sowie deren Größen und Zeiträume). Diese können sowohl künstlich als auch natürlich, sowohl biotisch als auch abiotisch sein, sowohl auf den Körper als auch die Psyche des Menschen einwirken und letztlich als positiv oder negativ empfunden werden oder sich auswirken. Die Bewältigung der Beanspruchung ist von den persönlichen (auch gesundheitlichen) Eigenschaften und kognitiven Fähigkeiten der individuellen Person abhängig, der Umgang mit einer Bedrohung wird auch Coping genannt. Einsetzbare Verhaltensweisen sind z. B. Aggression, Flucht, Verhaltensalternativen, Akzeptanz, Änderung der Bedingung oder Verleugnung der Situation. Als „positiver Stress“ bzw. Eustress (Die griechische Vorsilbe εὖ (eu) bedeutet „wohl, gut, richtig, leicht“) werden diejenigen Stressoren bezeichnet, die den Organismus zwar beanspruchen, sich aber positiv auswirken. Positiver Stress erhöht die Aufmerksamkeit und fördert die maximale Leistungsfähigkeit des Körpers, ohne ihm zu schaden. Eustress tritt beispielsweise auf, wenn ein Mensch zu bestimmten Leistungen motiviert ist, dann Zeit und Möglichkeiten hat, sich darauf vorzubereiten oder auch wenn eine (ggf. auch längere oder schwere) Krisensituation oder Krankheit dennoch positiv angegangen, bewältigt (s. Bewältigungsstrategie) und überwunden werden kann. Im Resultat können sogar Glücksmomente empfunden werden. Eustress wirkt sich auch bei häufigem, längerfristigem Auftreten positiv auf die psychische oder physische Funktionsfähigkeit eines Organismus aus. Stress wird erst dann negativ empfunden, wenn er häufig oder dauerhaft auftritt und körperlich und/oder psychisch nicht kompensiert werden kann und deshalb als unangenehm, bedrohlich oder überfordernd gewertet wird. Insbesondere können negative Auswirkungen auftreten, wenn die individuelle Person (auch durch ihre Interpretation der Reize) keine Möglichkeit zur Bewältigung der Situation sieht oder hat. Beispiele dafür sind Klausuren ohne Zeit oder Fähigkeit zum Lernen, eine trotz Ärztebesuch unklare oder nicht anerkannte Erkrankung (vgl. Semmelweis-Reflex), eine durch Lärm unerträgliche Wohnung ohne Möglichkeit zum Umzug,u. ä. In diesem Fall kann dauerhaft negativer Stress (auch Disstress oder Dysstress, engl. distress; die griechische Vorsilbe δύς (dys) bedeutet „miss-, schlecht“) gegebenenfalls durch geeignete Hilfen oder Stressbewältigungsstrategien verhindert werden. Abiotische Stressfaktoren wären z. B. physikalischer Natur, etwa Kälte, Hitze, Lärm, Abgase sowie natürliche und künstliche Strahlungen. Zu letzteren zählen etwa starke und übermäßig lange Sonneneinstrahlung oder sonstige, etwa hochfrequente oder radioaktive oder elektromagnetische Strahlungen. Weiterhin toxische Substanzen, z. B. Weichmacher wie etwa Diethylhexylphthalat (DEHP) in PVC-Fußbodenbelägen oder Kinderspielzeug; (Zigaretten-)Rauch und die darin enthaltenen Stoffe; Belastungen des Trinkwassers; übermäßiger und regelmäßiger Alkoholkonsum; vitalstoffarme Ernährung oder die zunehmend in einer Vielzahl von Produkten und Anwendungsverfahren der Landwirtschaft (z. B. „Krautregulierung“ durch Glyphosate) angewandten – und dadurch in den menschlichen Körper aufgenommenen – Pestizide. Biotische Faktoren wären beispielsweise Belastungen durch Krankheitserreger oder Tumoren, auch chronische und autoimmune Entzündungsprozesse, die jedoch wiederum durch die oben genannten abiotischen Faktoren (Stressoren mit Auswirkungen auf Zell-Stoffwechsel und Immunsystem) beeinflusst sind. Auf emotionaler Ebene können auch psychische Belastungen wie Mobbing, bestimmte eigene Einstellungen und Erwartungshaltungen eines Menschen oder z. B. seiner Eltern, und weiterhin Befürchtungen Stressoren sein (s. psychosoziale Stressfaktoren). Stress ist also zunächst die Beanspruchung des Körpers durch solche Stressoren. Daraufhin erfolgt eine Reaktion und ggf. Anpassung des Körpers auf und an diese Faktoren, ggf. mit Hilfe von außen. Disstress führt zu einer stark erhöhten Anspannung des Körpers (Ausschüttung bestimmter Neurotransmitter und Hormone, z. B. Adrenalin und Noradrenalin, Aktivierung des Sympathicus) und auf Dauer zu einer Abnahme der Aufmerksamkeit und Leistungsfähigkeit. Stress bzw. Disstress wirkt erst dann schädigend auf den menschlichen Organismus, wenn Beanspruchung über den Bereich der nach seiner individuellen Physis und Psyche bzw. gesundheitlichen Verfassung möglichen Anpassung und Reparaturfunktionen (siehe z. B. DNA-Reparatur) des individuellen Menschen, bzw. dessen Organismus, hinaus (chronischer Stress/Einwirkungsdauer; Übermaß; gegebenenfalls multiple Faktoren) erfolgt. In diesem Fall können o. g. Faktoren zur Beeinträchtigung des Stoffwechsels (siehe metabolischer Stress; oxidativer Stress) und somit zur generalisierten Beeinträchtigung von Heilungsverläufen oder (Immun-)Reaktionen auf Infektionen und Einwirkungen aller Art und/oder auf diese Weise auch vom Immunsystem ungehindert zu Zellmutationen, sprich Krebs, führen (s. medizinische Aspekte). Stresskonzeptionen Stimuluskonzept (stimulus based model) Das Stimuluskonzept konzentriert sich auf bestimmte Bedingungen und Ereignisse. Innerhalb dieser Operationalisierung werden bestimmte Stimuli als Stressoren bezeichnet. Beispielsweise werden Zeitdruck, interpersonelle Konflikte und Unfälle als Stressoren bezeichnet (Sonnentag und Frese, 2003). Problematisch an diesem Ansatz ist, dass fast jedes Ereignis oder fast jeder Stimulus von einem Individuum als Stressor bezeichnet werden kann (Lehmann, 2012). Reaktionskonzept (response based model) Das Reaktionskonzept fokussiert die physiologische Stressreaktion innerhalb eines Individuums bzw. auf spezifische physiologische Reaktionsmuster (Lehmann, 2012). Diese Konzeptualisierung hat den Nachteil, dass verschiedene Situationen die gleichen physiologischen Reaktionen hervorrufen können, welche außerdem durch das Coping (Gegenreaktionen des Individuums mit Ziel der Homöostase) des Individuums zusätzlich verändert werden können. Transaktionskonzept In diesen Ansatz werden die zwei vorangegangenen Ansätze integriert. Die Art der Situation und die Reaktion des Individuums haben ebenso Einfluss auf die Definition von Stress. Stress resultiert diesem Ansatz zufolge aus einer Interaktion von Umwelt und Individuum, wobei ebenfalls die Erwartungen, Interpretationen und das Coping des Individuums berücksichtigt werden. In der Stress-Forschung wurde dieser Ansatz gebraucht, jedoch wurden gleichzeitig bei der Messung von Stress auf verbale Aussagen oder die Messung von physiologischen Daten zurückgegriffen, wobei dies eigentlich eine Konzeption von Stress als Reaktion zu Grunde legen würde. Lazarus und Folkmann definieren Stress als die Relation zwischen Mensch und Umwelt, welche das Individuum als seinem Wohlergehen wichtig erachtet und in der jedoch seine Ressourcen nicht ausreichen, um auf einen Stressor adäquat zu reagieren. Diskrepanzkonzept Das Diskrepanzkonzept versucht Stress als Ungleichgewicht zwischen den Anforderungen der Umwelt und den Ressourcen oder Ansprüchen des Individuums zu operationalisieren. Carver definiert Stress als Diskrepanz zwischen der Umwelt und den Stressoren und den Ressourcen des Individuums. Semmer definiert Stress als subjektiv wahrgenommenes physiologisches Unwohlsein (State) durch Anspannung, welches daher rührt, dass das Individuum befürchtet, nicht fähig zu sein, den aversiven Stimuli adäquat zu begegnen. Mit dieser Definition werden die negativen Qualitäten von Stress betont (Lehmann, 2012). Von Konzeptionen von Stress zu Modellen für die Forschung Konzeptionen bzw. damit zusammen hängende Definitionen von Stress können in einem weiteren Schritt in konkretere Modelle transferiert werden (Lehmann, 2012). Modelle versuchen den Stressprozess, die Stress-Reaktionen und die Zusammenhänge zwischen den Stressoren und der Beanspruchung zu erklären und stellen so die Grundlage für empirische Forschung dar (Lehmann, 2012). Es gibt eine Vielzahl an Modellen (Kahn & Byosiere, 1992, zitiert nach Sonnentag und Frese, 2003), welche sich entweder auf den Prozess der Entstehung von Stress als solches konzentrieren, oder die Beziehung von einer Konfiguration verschiedener Stressoren und den damit zusammenhängenden Belastungen zu erklären versuchen. Stress-Theorien siehe Hauptartikel Stresstheorie Psychosoziale Stress-Faktoren Schwerwiegende Lebensereignisse, die bei Menschen Stress auslösen können, sind insbesondere der Tod eines nahen Mitmenschen und die Trennung durch eine Ehescheidung. Weitere Stress-Faktoren sind: chronische Konflikte in der Paarbeziehung Zeitmangel, Termindruck Lärm Geldmangel, Armut, Schulden, Überschuldung fehlende Gestaltungsmöglichkeiten, mangelndes Interesse am Beruf und in der Freizeit große Verantwortung Mobbing am Arbeitsplatz, Mobbing in der Schule, Mobbing im Alltag Schichtarbeit (bewirkt eine Störung des Schlaf-Wach-Rhythmus und gesundheitliche Probleme) Ständige Konzentration auf die Arbeit (zum Beispiel bei Fließbandarbeit) Angst, nicht zu genügen (Versagensangst) Perfektionismus (überhöhte Ansprüche an sich selbst und an andere) Soziale Isolation, Verachtung und Vernachlässigung Schlafentzug Reizüberflutung Krankheiten und Schmerzen, eigene und die von Angehörigen Seelische Probleme, unterschwellige Konflikte Schwerwiegende Ereignisse (beispielsweise ein Wohnungseinbruch, eine Operation, eine Prüfung) auch (unausgleichbare) Unterforderung, Langeweile und Lethargie Überforderung durch neue technische Entwicklungen (Technikstress, Technostress) Überforderung durch soziale Interaktion Stress durch die Bedrohung des Selbst (eigenes Scheitern oder die Respektlosigkeit anderer) Gesundheitsschädlicher Arbeits-Stress lässt sich nach dem Job-Demand-Control-Modell von Robert Karasek sowie nach dem von Johannes Siegrist entwickelten Modell einer Gratifikationskrise charakterisieren. Siehe auch Abschnitt: Stress durch die Bedrohung des Selbst Stressreaktionen Typische Stress-/Panik-/Krisen-Reaktionen bei: Erwachsenen (Schwerpunkte) Gehirn: Abbau von Gehirnmasse, Einschränkung der emotionalen Ebene, Durchblutungsstörungen im Gehirn, Gefühle: Traurigkeit, Verlustangst, Ärger, Schuld, Vorwürfe, Angst, Verlassenheit, Müdigkeit, Hilflosigkeit, „Schock“, Jammern, Taubheit, Leere, Hoffnungslosigkeit, Deprivation, Demütigung, Steigerung des aggressiven Verhaltens, Bewegungsdrang, Gereiztheit, emotionsloses Denken, Kognition: Ungläubigkeit, Verwirrung, Vorurteile, Konzentration, Halluzinationen, Depersonalisation, Vergesslichkeit, körperlich: Schwitzen, Übelkeit, Enge in Kehle und Brust, Übersensibilität bei Lärm, Atemlosigkeit, Muskelschwäche, Verspannung von Muskeln, Mangel an Energie, trockener Mund, Magen- und Darmprobleme, zeitbedingte Impotenz, Haarausfall, schlechtes Hautbild, rötliche Augen, verminderte Mimik, Herzstechen, Hörsturz, Gelenkschmerzen, Hautausschlag, Schwächung des Immunsystems, Magnesium- und Kalziummangel, langfristige Störung des Verdauungsprozesses sowie erhöhtes Risiko für Bluthochdruck, Schlaganfall und Herzinfarkt (siehe auch Abschnitt Medizinische Aspekte), Verhalten: Verminderte Kreativität, Schlafstörungen, Appetitlosigkeit, Geistesabwesenheit, sozialer Rückzug, Träume über das Ereignis, Vermeidung von Nähe zu Tatort oder ähnlichen Situationen, Seufzen, Aktivismus, Weinen, Hüten von „Schätzen“. Kindern und Jugendlichen im Alter von 1 bis 5: Daumenlutschen, Bettnässen, Dunkelangst, Angst vor Tieren, Klammern, Nachtangst, Harninkontinenz, Stuhlinkontinenz, Verstopfung, Stottern/Stammeln, Appetitlosigkeit oder Heißhunger, Schwitzen. Alter von 5 bis 11: Irritiert sein, Jammern, Klammern, Aggressivität, Geschwisterrivalität, Alpträume, Dunkelangst, Schulangst, Fingernägel kauen, sozialer Rückzug von Gleichaltrigen, Interesselosigkeit, Konzentrationsmangel, Schwitzen. Alter von 11 bis 14: Schlafstörungen, Essstörungen, Rebellion daheim, mangelndes Interesse an Aktivitäten Gleichaltriger, Schulprobleme (z. B. Gewaltneigung, Rückzug, Interesselosigkeit, Mittelpunktsstreben), physische Probleme (z. B. Kopfweh, undefinierbare Schmerzen, Hautprobleme, Verdauungsprobleme, sonstige psychosomatische Beschwerden), Schwitzen. Alter von 14 bis 18: Psychosomatische Beschwerden, Störungen des Appetits und des Schlafes, hypochondrische Reaktionen, Durchfall, Verstopfung, Menstruationsbeschwerden, Steigerung oder Senkung des Energielevels, sexuelles Desinteresse, Abnahme von Durchsetzungskämpfen mit Eltern, Konzentrationsmangel, Schwitzen. Stress-Sensibilisierung Einflüsse wie Angst oder Stress können zu einer Sensibilisierung für den Stress führen. Nach einer erfolgten Sensibilisierung löst dann ein Stressor eine stärkere Stressreaktion aus als zuvor. Eine Stress-Sensibilisierung entsteht zum Beispiel bei Traumatisierung, etwa bei einer posttraumatischen Belastungsstörung. Stress in der Schwangerschaft und pränataler Stress Erlebt eine Schwangere Stress, so wirkt dieser auch auf das ungeborene Kind ein und beeinflusst seine Entwicklung. Pränataler Stress gilt als Risikofaktor für exzessives Schreien im 3. bis 6. Lebensmonat und für eine spätere Neigung des Kindes zu ängstlichen Reaktionen. Als Ursache vermutet man erhöhte Stresshormon­konzentrationen. Allgemeiner gesprochen gelten eine Depression, Ängste und Stress während der Schwangerschaft als Risikofaktoren für die Entstehung emotionaler und kognitiver Symptome beim Kind. Umgekehrt korrelieren positive Lebenserlebnisse während der Schwangerschaft mit einer verringerten Konzentration des Stresshormons Cortisol im dritten Schwangerschaftstrimester. Dynamik von Stress und Erholung Die Erholungsforschung betrachtet Erholung als »intentional gesteuerten Prozess, der die aktive Auseinandersetzung einer Person mit ihrer Umwelt ebenso umfasst, wie die grundsätzliche Kontrollierbarkeit des Erholungsprozesses« (Almer, 1996). In ihrem Zentrum steht die komplexe Interaktion zwischen Belastung und Erholung. Die wichtigsten Zusammenhänge skizziert Eichhorn (2006): Art und Dauer der Belastungsphase strahlen in die Erholungsphase aus. Je länger und stärker die Belastungsphase dauert, umso länger dauert es, bis man sich davon erholt und wieder fit in die nächste Belastungsphase hineingehen kann. Nach einem stressigen Arbeitstag fühlt man sich einerseits innerlich überdreht und angespannt, andererseits energie- und kraftlos. Im Extremfall hat man zu nichts mehr Lust. Fachleute sprechen von low-effort-activities, also Aktivitäten, die keine große Anstrengung erfordern. Ungünstig an ihnen ist: Sie sind kaum erholsam. Belastung addiert sich auf. Ist man morgens um acht Uhr noch relativ locker, sieht es um elf oder fünfzehn Uhr schon wieder ganz anders aus. Das kann sogar dazu führen, dass man die nächste Belastungsphase nicht optimal erholt antritt, wenn beispielsweise Stress sogar die Qualität und Quantität des Schlafs beeinträchtigt. Dann ist man auch schneller wieder überlastet und benötigt in der Folge eine noch längere Erholungsphase. So kann sich ein gefährlicher Kreislauf hochschaukeln. Ein etabliertes Verfahren zur Analyse des Beanspruchung- und Erholungszustands ist der Erholungs-Belastungsfragebogen (EBF; Kallus, 1995). Den EBF gibt es inzwischen auch in einer sportsspezifischen (EBF-Sport; Kallus & Kellmann, 2000) und einer arbeitsspezifischen (EBF-work; Kallus & Jimenez, 2008) Version. Der EBF-work findet häufig Anwendung im Betrieblichen Gesundheitsmanagement bzw. in Projekten der Betrieblichen Gesundheitsförderung. Stressvermeidung Vor der Stressbewältigung steht die aktive Vermeidung krankmachenden Stresses mit professionellen Problemlösungen. Neben auf den einzelnen Mitarbeiter bezogene individuelle Ansätze stehen kollektive Ansätze, die strukturelle Stresserzeugung in Betrieben ausschalten sollen. Im Bereich des Arbeitsstresses mussten Betriebsräte zunehmend Kompetenz aufbauen, die bei der Bewertung der Ressourcenausstattung von Projekten und der Arbeitsgestaltung eingesetzt wird. Unterstützung bieten auch Gewerkschaften, Berufsverbände und Beratungseinrichtungen. Gesetzliche Grundlage zum Schutz von Arbeitnehmern gegen arbeitsbedingte Erkrankungen ist insbesondere das Arbeitsschutzgesetz im Zusammenwirken mit dem Betriebsverfassungsgesetz. Die Erfassung von krankmachendem oder tödlichem Stress wirft automatisch Haftungsfragen auf. Das erschwert Messung und Vermeidung. Besonders motiviert bei der problemlösungsorientierten Stressforschung sind Krankenkassen und Berufsgenossenschaften, da durch Stress ausgelöste psychische Erkrankungen erhebliche Kosten verursachen. Weitere Ansatzpunkte bieten die Gestaltung der Arbeits- und Lernumgebung, da auch hier psychophysiologische Wirkungen bekannt sind: bei einer Vergleichsstudie des Joanneum-Instituts an einer österreichischen Schule ergab sich ein deutlicher, u. a. die Herzfrequenz senkender Effekt auf diejenigen Schüler, die in holzverkleideten Klassenzimmern unterrichtet wurden. Ebenso sank die von den Lehrern empfundene soziale Beanspruchung durch die Schüler. Kosten Stress am Arbeitsplatz und psychische Folgebelastungen schlagen sich auch in der Frühberentungsstatistik nieder. Einer Berechnung der DRV Bund (2008) zufolge ist die Zahl der mit psychischen Störungen und hauptsächlich mit Angst, Depression und sonstigen Stressfolgen begründeten Frühberentungen zwischen 1993 und 2006 kontinuierlich angestiegen. Inzwischen haben diese Frühberentungen mit einem Anteil von über 30 % den Spitzenplatz unter den deklarierten Ursachen des vorzeitigen Ruhestands erklommen. 2007 klagten in der regelmäßigen Schweizer Gesundheitsbefragung zwei Drittel der Erwerbstätigen über Stress und Zeitdruck am Arbeitsplatz. 41 % bejahten starke nervliche Anspannungen. Die Folgekosten werden auf jährlich 4,2 Milliarden Franken geschätzt. In den USA gaben laut „Brain Facts 2003“ 60 % der befragten Erwachsenen an, wenigstens einmal die Woche unter einer ausgeprägten Stressbelastung zu stehen. 60 % der Gesundheitsprobleme, derentwegen erwachsene US-Amerikaner einen Arzt aufsuchen, sind durch Stress ausgelöst oder damit assoziiert. Der durch Stress verursachte volkswirtschaftliche Schaden – stressbedingte Arbeits- und Produktionsausfälle sowie Ausgaben im Gesundheitssystem – wird auf jährlich 300 Milliarden US $ geschätzt. In einer weiteren Studie von Grebner, Berlowitz, Alvaro und Cassina (2010) wurde festgestellt, dass 34,4 Prozent der Schweizer Arbeitnehmer angeben, häufig bis sehr häufig Stress am Arbeitsplatz ausgesetzt zu sein. Dies entspricht einer Zunahme von 30 Prozent im Vergleich zum Jahr 2000. Messung von Stress über Fragebögen Über psychologische Fragebögen können bislang nur einzelne Facetten erfasst werden, wie belastende Lebensereignisse, die subjektive Belastung oder die Stressbewältigung. Es gibt dementsprechend verschiedene psychologische Fragebögen: TICS – Trierer Inventar zum chronischen Stress EBF – Erholungs-Belastungs-Fragebogen PSQ – Perceived Stress Questionnaire SVF 120/84/78/42 – Stressverarbeitungsfragebögen TBB – Tagebuch zur Erfassung alltäglicher Belastungen und deren Bewältigung ABF – Alltagsbelastungsfragebogen ATE – Fragebogen zur Erfassung emotional relevanter Alltagsereignisse Stressbewältigung, Therapie Ausgangspunkt für Stressbewältigungstechniken sind das transaktionale Stressmodell und die Theorie der Ressourcenerhaltung. Man unterscheidet zwischen problembezogenen und emotionsbezogenen Bewältigungsstrategien (engl. Coping). Wenn Stress auf einem Konflikt beruht, kann dieser geklärt und gelöst werden. Stress aufgrund unbewältigter Konflikte zeigt sich in kognitiven, emotionalen, muskulären, vegetativ-hormonellen und sozialen Reaktionen. Entsprechende Stressbewältigungstechniken dämpfen die Stressreaktionen bzw. versuchen, diese erst gar nicht entstehen zu lassen. Beispiele: Autogenes Training, Biofeedback, Neurofeedback und Mindmachine, Feldenkrais-Methode, Progressive Muskelrelaxation (PMR), Focusing, Sophrologie oder Achtsamkeitsbasierte Stressreduktion, Verinnerlichung von problem- bzw. emotionsorientierten Bewältigungsformen wie bei der Wahrnehmungslenkung oder positiven Selbstinstruktion, gruppenbezogene Bewältigungsstrategien wie Suche nach Unterstützung, Teambildung, rücksichtsvolles Verhalten oder aggressiv-antisoziales Coping, abgebildet im multiaxialen Copingmodell. Auch westliche angepasste Methoden aus Indien, China oder Japan, wie z. B. Qigong, Yoga oder Reiki können angewandt werden. Durch körperliche Betätigung wie im Sport (v. a. Ausdauersport wie Schwimmen, Radfahren, Joggen, …) kann Stress schneller vom Körper abgebaut werden. Nur fünf Minuten Bewegung in grüner Umgebung bessern die Laune und das Selbstwertgefühl bemerkenswert gut und lindern Stress. Dies ergab eine Metaanalyse von zehn Studien mit 1250 Probanden. Medizinische Aspekte Risiken Stress wirkt sich auf die Psyche genauso aus wie auf die Befindlichkeit des Körpers. Es kann zu leichten und schweren Krankheiten kommen. Besonders gut untersucht ist der Effekt von emotionalem Stress auf den Ausbruch von Erkältungskrankheiten, AIDS, Herpes labialis und Problemen mit dem Magen-Darm-Trakt wie z. B. Verdauungsbeschwerden. Etliche Studien haben die krankmachenden Effekte sogenannter Stresshormone belegt. So kommt es bei Stress zu einer erhöhten Konzentration von Adrenalin, Noradrenalin oder Cortisol im Blut (siehe auch psychophysiologische Aktivierung, Reaktivität und Reaktionsmuster). Dies zieht langfristig Schäden an den Blutgefäßen nach sich. Durch eine Schutzreaktion des Körpers auf Stress kann es zu einer unnatürlichen muskulären Anspannung kommen (Dysponesis), was durch eine Chronifizierung z. B. auch zu Rückenschmerzen führen kann. Es kann durch Stress zu Zähneknirschen (Bruxismus) kommen, wodurch eventuell die Zähne Schaden nehmen. Stress erhöht das Risiko für Sehverlust, und umgekehrt trägt ein Sehverlust zu Stress bei. Stress erhöht auch das Risiko für die netzhautbedingte Sehstörung Retinopathia centralis serosa. Stress kann zu einem erhöhten Prolaktin­spiegel (Hyperprolaktinämie) führen und einem damit einhergehenden erhöhten Risiko für Mastitis. Verschiedene Studien deuten darauf hin, dass psychosozialer Stress wohl ein Risikofaktor für Herzkrankheiten ist. Eine spezielle Art des Stresses, das „Lampenfieber“, kann – je nach Stärke – positiv oder negativ wirken. Möglicher Nutzen Bei Mäusen, die sich sozialen geistigen und körperlichen Herausforderungen stellen müssen, wachsen Tumoren deutlich langsamer oder schrumpfen sogar. Diesen Effekt haben Wissenschaftler für kolorektales Karzinom und malignes Melanom im Tiermodell nachgewiesen. So fielen die Tumoren bei Mäusen, die in Gruppen von 20 Artgenossen zusammenlebten und Spielzeug, Laufräder und Versteckmöglichkeiten zur Verfügung hatten, deutlich kleiner aus als die Geschwulste von Tieren, die nur zu fünft beherbergt waren und weniger Anregungen erhielten. Bei nahezu jeder fünften Maus der ersten Gruppe hatte sich der Tumor nach sechs Wochen sogar zurückgebildet. Körperliche Betätigung allein vermochte das Krebswachstum aber nicht zu hemmen: Die Aktivitäten mussten nachweislich leichten Stress hervorrufen. Dieser drosselte die Ausschüttung von Leptin aus dem Fettgewebe. Das Hormon, das im Körper eigentlich als eine Art Appetitzügler fungiert, fördert offenbar auch das Krebswachstum. So vergrößerten sich die Geschwulste von Mäusen, wenn die Forscher ihnen Leptin verabreichten. Im Gegensatz dazu hatten Tiere, deren Leptinproduktion künstlich blockiert wurde, deutlich kleinere Tumoren als ihre Artgenossen. Vielleicht sei es auch für krebskranke Menschen – so die Autoren – nicht empfehlenswert, jeglichen Stress zu vermeiden. Stress durch die Bedrohung des Selbst Eine Reihe von Stressfaktoren ist in der organisationellen Stressforschung bereits anerkannt und etabliert; jedoch kann diese Liste nicht als komplett angesehen werden. Der Selbstwert wurde bisher in wissenschaftlichen Untersuchungen zu Stress vor allem als Ressource oder als abhängige Variable untersucht. Das theoretische Framework „Stress as Offence to Self“ (SOS-Konzept), welches von Semmer und seiner Arbeitsgruppe an der Universität Bern erstellt wurde, rückt die Bedrohung des Selbst als Ursache von Stress in das Zentrum des Stressprozesses. Als zentrale Elemente beinhaltet das SOS-Konzept entweder Stress durch eine Bedrohung des Selbst aufgrund eines eigenen Scheiterns (SIN) oder durch die Respektlosigkeit anderer Personen (SAD). Die Bedrohung des Selbst durch Respekt­losigkeit beinhaltet wiederum Bedrohungen des Selbst durch illegitime soziale Handlungen, illegitime Aufgaben oder illegitime Stressoren. Siehe auch Stressmodell von Lazarus (1974) – von Arnold A. Lazarus, dem Begründer der Multimodalen Verhaltenstherapie Theorie der Ressourcenerhaltung nach Stevan Hobfoll Burnout-Syndrom Psychische Belastung Mobbing Simple living Stressreaktion Überforderung Work-Life-Balance Literatur Petra Buchwald, Christine Schwarzer, Stevan E. Hobfoll: Stress gemeinsam bewältigen. Ressourcenmanagement und multiaxiales Coping. Hogrefe, Göttingen 2004, ISBN 3-8017-1679-1. Christine F. Doyle: A Study of Stress. In: Work and Organizational Psychology. 2003, ISBN 0-415-20872-6, S. 111–158. Christoph Eichhorn: Gut erholen – besser leben. Das Praxisbuch für Ihren Alltag. Klett-Cotta, Stuttgart 2006, ISBN 3-608-94413-3. August Wilhelm von Eiff Hrsg.: Streß – Phänomenologie, Diagnose und Therapie in den verschiedenen Lebensabschnitten, Thieme Verlag, Stuttgart/ New York 1980, ISBN 3-13-584501-X. G. Fink (Hrsg.): Encyclopedia of Stress. San Diego 2000. Lotte Habermann-Horstmeier: Risikofaktor „Stress“. Hogrefe, Bern 2017, ISBN 978-3-456-85708-4. Stevan E. Hobfoll: Stress, culture, and community. Plenum, New York 1998. Richard Lazarus, Susan Folkman: Stress, appraisal, and coping. Springer, New York 1984 Klaus Peter Müller: Keine Zeit zum Leben. Philosophische Essays zur Zeiterfahrung in der Moderne. Tectum, Marburg 2012, ISBN 978-3-8288-2956-5. C. Palentien: Jugend und Stress. Ursachen, Entstehung und Bewältigung. Luchterhand, Berlin 1997. Patrick Kury: Der überforderte Mensch. Eine Wissensgeschichte vom Stress zum Burnout. Campus, Frankfurt/ New York 2012, ISBN 978-3-593-39739-9. J. Lopez u. a.: Neural circuits mediating stress. In: Biological Psychiatriy. Band 46, 1999, S. 1461–1471. Ludger Rensing, Michael Koch, Bernhard Rippe, Volkhard Rippe: Mensch im Stress. Psyche, Körper, Moleküle. Spektrum Akademischer Verlag, Heidelberg 2005, ISBN 3-8274-1556-X. Klaus Scheuch, Gert Schreinicke: Stress – Gedanken, Theorien, Probleme. Volk und Gesundheit, Berlin 1986. Ralf Schwarzer: Stress, Angst und Handlungsregulation. Kohlhammer, Stuttgart 2000. Hans Selye: Stress. Bewältigung und Lebensgewinn. Aus dem Englischen von Hans Th. Asbeck. Piper, München/ Zürich 1974, ISBN 3-492-02086-0. Helmut Valentin, K. Goßler, K.H. Schaller, G. Schäcke, R. Schiele und D. Weltle: Die Analyse des Stress aus arbeitsmedizinischer Sicht, Bundesanstalt für Arbeitsschutz und Unfallforschung, Dortmund 1977 (Hrsg.), Wirtschaftsverlag NW GmbH, Bremerhaven, ISBN 3-920320-60-3. Frederic Vester: Phänomen Stress. 19. Auflage. Deutscher Taschenbuch Verlag, München 2008, ISBN 978-3-423-33044-2. S. Grebner, I. Berlowitz, V. Alvaro, M. Cassina: Stress bei Schweizer Erwerbstätigen. Zusammenhänge zwischen Arbeitsbedingungen, Personenmerkmalen, Befinden und Gesundheit. 2010. online abgerufen am 24. Juni 2016. J. Lehmann: Die Bedrohung des Selbst als Ursache von Stress – eine experimentelle Operationalisierung des SOS-Konzeptes. Institut für Psychologie, Universität Bern, 2012. Philippe Zawieja, Franck Guarnieri (Hrsg.): Dictionnaire des risques psychosociaux. Éditions du Seuil, Paris 2014, ISBN 978-2-02-110922-1. (auf Französisch). Lea Haller, Sabine Höhler, Heiko Stoff (Hrsg.): Stress! In: Zeithistorische Forschungen/Studies in Contemporary History. 11, Heft 3, 2014. Weblinks Bundesanstalt für Arbeitsschutz und Arbeitsmedizin: Stressreport Deutschland 2012 John Carpi: Stress: It’s Worse Than You Think. 1996/2010. Erich Latniak, Anja Gerlmaier: Zwischen Innovation und täglichem Kleinkrieg. (PDF; 302 kB) Daisy Yuhas: »Stress scheint im Lauf des Lebens abzunehmen« in Spektrum.de vom 18. Januar 2023 Video: Manfred Spitzer: . RealVideo aus der BR-alpha-Reihe „Geist und Gehirn“ (ca. 15 Minuten) Einzelnachweise
Q123414
163.175971
69132
https://de.wikipedia.org/wiki/Hadron
Hadron
Als Hadronen (von altgriechisch hadrós ‚dick‘, ‚stark‘) bezeichnet man subatomare Teilchen, die von der starken Wechselwirkung zusammengehalten werden. Die bekanntesten Hadronen sind die Nukleonen (Neutronen und Protonen), die Bestandteil der Atomkerne sind. Die Bezeichnung Hadronen wurde 1962 von Lew Okun als Reaktion auf die Entdeckung immer neuer Teilchen, die der starken Wechselwirkung unterlagen, eingeführt. Zwei Jahre später postulierte Murray Gell-Mann die Existenz von Quarks, aus denen die Hadronen aufgebaut sind. Dies führte dazu, dass die Hadronen nicht mehr als Elementarteilchen angesehen werden. Je nach Spin werden die Hadronen in zwei Typen eingeteilt: Mesonen, sie haben ganzzahligen Spin und sind damit Bosonen. Sie bestehen aus einem Quark und einem Antiquark, dem Antiteilchen eines Quarks. Beispiele für Mesonen sind Pi-Meson und K-Meson. Baryonen, sie haben halbzahligen Spin und sind damit Fermionen. Sie bestehen aus drei Quarks; Antibaryonen aus drei Antiquarks. Beispiele für Baryonen sind Proton und Neutron. Hadronen werden oft vereinfacht als sphärisch (kugelförmig) angenommen und haben einen Radius von ca. 10−15 m. Alle freien Hadronen sind instabil, außer dem Proton, bei dem noch keine Zerfälle nachgewiesen wurden. Die Zerfälle der Hadronen können über die starke, die schwache oder die elektromagnetische Wechselwirkung stattfinden. Beispielsweise zerfällt das neutrale Pi-Meson (Pion) durch die elektromagnetische Wechselwirkung, meist in zwei Photonen. Die Übergänge zwischen Quarks verschiedener Flavour-Quantenzahlen (up, down, strange, sowie die sehr viel schwereren charm, bottom, top) werden durch die schwache Wechselwirkung bewirkt, die somit auch Übergänge zwischen verschiedenen Hadronen ermöglicht. Da sie im Austausch schwerer W-Bosonen besteht, sind diese Zerfälle relativ langsam. Neutronen zerfallen z. B. unter Abgabe eines Elektrons und Antineutrinos in Protonen (Betazerfall). In einem Atomkern kann das Neutron allerdings stabil sein, weil die Umwandlung in ein Proton die Bindungsenergie wegen der Coulomb-Abstoßung verringern würde. Die starke Wechselwirkung wird auf „fundamentaler Ebene“ durch die Quantenchromodynamik als Austausch von Gluonen beschrieben, oder – wie in der Kernphysik überwiegend üblich – auf der „phänomenologischen Ebene“ durch den Austausch von Mesonen, vor allem den leichten Pionen. Quark-Flavours werden durch die starke Wechselwirkung nicht verändert, es können aber z. B. über Mesonen Quarks zwischen Baryonen ausgetauscht werden. In der Hochenergiephysik beobachtet man bei Streuexperimenten nicht nur Quarks, sondern auch Gluonen. Man stellt sich den Aufbau eines Hadrons deshalb so vor, dass außer den „Grundbausteinen“ eines Hadrons, den so genannten Valenzquarks, die seine Quantenzahlen festlegen, noch Gluonen und eine Wolke virtueller Quark-Antiquark-Paare vorhanden sind. Virtuell heißt, dass nach der Quantenfeldtheorie aus dem Vakuum ständig solche Paare von Teilchen und Antiteilchen erzeugt und gleich wieder vernichtet werden. Allgemein rührt bei Hadronen aus leichten Quarks (up, down) die Masse zum größten Teil nicht von den Massen der Valenzquarks her. Vielmehr wird diese Masse durch die starke Wechselwirkung dynamisch erzeugt. Viele Hadronen sind extrem kurzlebige Anregungszustände, die Resonanzen, die bei inelastischen Streuexperimenten beobachtet werden. Theoretisch kann es Hadronen beliebig hoher Masse geben (wenn man den Massebereich, in dem die Gravitation wichtig wird, einmal beiseitelässt). Je schwerer ein Hadron ist, desto kurzlebiger ist es im Allgemeinen. Diskutiert wird auch die Existenz exotischer Hadronen wie Tetraquarks, die aus zwei Quarks und zwei Antiquarks bestehen, und Pentaquarks, die aus vier Quarks und einem Antiquark bestehen. Weitere exotische Hadronen wären sogenannte Hybride (Zustände, die neben Quarks auch gluonische Anregungen enthalten) oder rein aus Gluonen bestehende Glueballs. Neben den Hadronen gibt es eventuell neue Materiezustände wie das Quark-Gluon-Plasma. Dafür sprechen Hinweise aus Kollisionsexperimenten mit schweren Ionen. Literatur Hans Frauenfelder, Ernest M. Henley: Teilchen und Kerne. Die Welt der subatomaren Physik. 4., vollständig überarbeitete Auflage. Oldenbourg, München u. a. 1999, ISBN 3-486-24417-5. Harald Fritzsch: Elementarteilchen. Bausteine der Materie (= Beck'sche Reihe 2346 C.-H.-Beck-Wissen). C. H. Beck Verlag, München 2004, ISBN 3-406-50846-4. Kenneth S. Krane: Introductory Nuclear Physics. Revised edition. Wiley & Sons, New York u. a. 1988, ISBN 0-471-85914-1. Erich Lohrmann: Hochenergiephysik. 5., überarbeitete und erweiterte Auflage. Teubner, Stuttgart u. a. 2005, ISBN 3-519-43043-6. Theo Mayer-Kuckuk: Kernphysik. Eine Einführung. 7., überarbeitete und erweiterte Auflage. Teubner, Stuttgart u. a. 2002, ISBN 3-519-13223-0. Bogdan Povh, Klaus Rith, Christoph Scholz, Frank Zetsche: Teilchen und Kerne. Eine Einführung in die physikalischen Konzepte. 6. Auflage. Springer, Berlin u. a. 2004, ISBN 3-540-21065-2. Weblinks Paul, Weise (TU München): online Skript Teilchen und Kerne offline, Wayback-Link unvollständig Einzelnachweise
Q101667
115.770393
688787
https://de.wikipedia.org/wiki/Mehrsprachigkeit
Mehrsprachigkeit
Mehrsprachigkeit oder Polyglossie ( „viel“ und „Sprache“) ist die Fähigkeit eines Menschen, mehr als eine Sprache zu sprechen oder zu verstehen. Auf eine Familie, soziale Gruppe, Kultur, Gesellschaft, ein Gebiet oder einen Staat bezogen versteht man unter Mehrsprachigkeit (auch Multilingualismus bzw. Plurilingualismus) die Geltung und die verbreitete oder übliche Verwendung mehrerer Sprachen nebeneinander durch die beteiligten Personen oder Institutionen. Gesellschaftliche Mehrsprachigkeit ist durch historische Entwicklungen wie Kolonisation und Kriege verursacht ebenso wie durch Migration, größere räumliche Mobilität und Globalisierung. Dadurch ist in den meisten Ländern Mehrsprachigkeit Teil des Alltags. Viele Menschen lernen mehrere Sprachen entweder im familiären Umfeld oder später in Kindergarten und Schule. Während in der Vergangenheit Mehrsprachigkeit für Individuen und Gesellschaft überwiegend negativ gesehen wurde, wird dies heute in Forschung und Politik differenzierter gesehen und vor allem die positiven kognitiven Auswirkungen für das Individuum und die Vorteile für die Gesellschaft hervorgehoben. Terminologie Mehrsprachigkeit kann bedeuten: individuelle Mehrsprachigkeit: die Fähigkeit eines Individuums, in mehreren Sprachen zu kommunizieren gesellschaftliche Mehrsprachigkeit: die verbreitete Verwendung mehrerer Sprachen in einem Staat oder einer Region institutionelle Mehrsprachigkeit: die Verwendung mehrerer Sprachen in Institutionen Oft ist eine gesellschaftliche und institutionelle Mehrsprachigkeit verknüpft mit einer Mehrsprachigkeit von Individuen. In vielen Publikationen werden Bilingualismus (Zweisprachigkeit) und Multilingualismus (Mehrsprachigkeit bzw. Polylingualismus) meist austauschbar verwendet. Der Unterschied zwischen Bilingualismus und Mehrsprachigkeit bezieht sich nur auf die Zahl der Sprachen. In manchen Ländern, darunter Belgien, Deutschland und die Schweiz, wird der Ausdruck Mehrsprachigkeit gegenüber Bilingualismus bevorzugt. Diglossie beschreibt die Zweisprachigkeit einer Gesellschaft, bei der es eine klare funktionale Differenzierung zwischen zwei sozial unterschiedlich gewerteten Sprachvarietäten gibt. Arten von Mehrsprachigkeit In der sprachwissenschaftlichen Literatur wird zwischen individueller und gesellschaftlicher Mehrsprachigkeit unterschieden, wobei zwischen Mehrsprachigkeit als individuelles Phänomen und als gesellschaftliches Phänomen nicht immer scharf getrennt werden kann. Individuelle Mehrsprachigkeit Unter individueller Mehrsprachigkeit versteht man die Fähigkeit einer Person, sich in mehreren Sprachen verständigen zu können. Die Person kann von einer Sprache in die andere umschalten, falls dies erforderlich ist, um beispielsweise eine Unterhaltung aufrechtzuerhalten (Code-Switching). In der Literatur gibt es eine Debatte, inwiefern ein Individuum beide Sprachen gleichermaßen perfekt beherrschen muss. Einige Linguisten vertreten eine minimalistische Definition: Nach dieser ist jede Person mehrsprachig, die sich im Alltag in verschiedenen Sprachen verständigen kann, ohne dass sie jede Sprache notwendigerweise perfekt beherrscht. Die Vertreter einer maximalen Definition betrachten nur Individuen als mehrsprachig, die beide Sprachen perfekt wie eine Muttersprache beherrschen (perfekter oder wahrer Bilingualismus, Ambilingualismus). Man kann auch zwischen symmetrischer und asymmetrischer Mehrsprachigkeit unterscheiden. Bei erster beherrscht man die Sprachen gleich gut, während bei der asymmetrischen Mehrsprachigkeit eine Sprache weniger gut beherrscht wird. Ob ein bilinguales Individuum seine beiden Sprachen fließend beherrscht, ist abhängig von vielen äußeren und inneren Faktoren, wie zum Beispiel dem Alter, die allgemeine Intelligenz, die Sprachbegabung als auch Persönlichkeitsfaktoren, Motivation und soziale Umstände der lernenden Person. Speziell beim Faktor Alter gibt es eine umfangreiche Diskussion in der Sprachwissenschaft, ob ein Kind ab einem bestimmten Alter eine weitere Sprache noch auf Muttersprachniveau erreichen kann oder nicht. Vertreter der These, dass dies ab einem gewissen Alter nicht mehr möglich ist, sprechen von einer „kritischen Periode“ für Spracherwerb. Die individuelle Mehrsprachigkeit kennt viele Ursachen; zum Beispiel das Leben in Sprachgrenzgebieten, in sprachlich gemischten Regionen, Zusammenleben und Heirat mit Anderssprachigen, der Zugang zu höherer Bildung, der Glaube und die Zugehörigkeit zu einer Religion etc. Gesellschaftliche Mehrsprachigkeit Unter gesellschaftlicher Mehrsprachigkeit versteht man, wenn in einer Gesellschaft mehr als eine Sprache verwendet wird. In Europa tritt dies beispielsweise in Grenzgebieten auf; ferner haben viele europäische Staaten sprachliche Minderheiten, so etwa die Basken in Spanien und Frankreich oder die keltischen Sprachen in Großbritannien, Frankreich und Irland. Mehrsprachige Gesellschaften können in verschiedene Typen eingeteilt werden: Mehrsprachige Staaten mit Territorialprinzip sind Staaten, in denen zwar mehrere Sprachen offizielle Sprachen sind, aber jeweiligen Sprachen auf Teile des Staatsgebiets beschränkt sind. Ein typisches Beispiel ist die Schweiz, in der die meisten Kantone einsprachig sind, mit Französisch, Deutsch oder Italienisch als Amtssprache. In solchen Staaten sind die Einwohner nicht notwendig alle mehrsprachig. Staaten mit individueller Mehrsprachigkeit sind Staaten, in denen ein großer Teil der Bevölkerung mehrsprachig ist. Individuen beherrschen mehrere Sprachen und setzen sie je nach Situation ein. So sind fast alle afrikanischen Staaten in diesem Sinne mehrsprachig. So sprechen viele Menschen in afrikanischen Staaten ein oder mehrere einheimische Sprachen sowie zusätzlich als Amtssprache noch Sprachen der ehemaligen Kolonialmächte wie Englisch oder Französisch. Einsprachige Staaten mit Minderheitsregionen sind Staaten, die offiziell nur eine Amtssprache haben, aber es gibt auf dem Staatsgebiet kleinere Regionen, in denen anderssprachige Minderheiten leben. Beispiele sind etwa die Bretonen in Frankreich, die Katalanen in Spanien und die deutschsprachige Minderheit in Dänemark. Sprachliche Minderheiten, die schon längere Zeit in ihren Regionen leben, werden auch als autochthone Minderheiten bezeichnet. Staaten mit allochthonen Minderheiten sind Staaten, in denen sprachliche Minderheiten nicht schon länger leben, sondern durch Immigration Teil der Bevölkerung geworden und in der Regel über das Staatsgebiet verteilt sind. Beispiele sind italienische und türkische Immigranten in Deutschland, die sogenannten „Gastarbeiter“, und ihre Nachfahren, Facharbeiter und Firmenangehörige, die im Auslandsdienst arbeiten, sowie Diplomaten und Akademiker, die in fremden Ländern leben und arbeiten. Seit den 2000er Jahren ist ein größeres Interesse daran entstanden, wie sich Sprache in mehrsprachigen Gesellschaften im öffentlichen Raum manifestiert. Besonderes Augenmerk ist dabei zum Beispiel auf (mehrsprachigen) Schildern, wozu auch Aufschriften auf Geschäftsportalen, Werbeplakate oder Hinweisschilder zählen. Solche Sprache im öffentlichen Raum wird in der Forschung als Sprachlandschaft (Linguistic Landscape) bezeichnet. Institutionelle Mehrsprachigkeit Die institutionelle Mehrsprachigkeit bedeutet, dass in öffentlichen Institutionen und Organisationen wie Verwaltung, Rechtspflege, Gesundheitssystem und Schulwesen in mehreren Sprachen kommuniziert wird. Beispiele für mehrsprachige Institutionen sind mehrsprachige Schulen wie die Europaschulen in Berlin oder die Institutionen der Europäischen Union. In der Schweiz werden die nationalen und kantonalen öffentlichen Dienste in verschiedenen Sprachen angeboten und Lebensmittel in Großverteilern dreisprachig angeschrieben. In mehrheitlich einsprachigen Gesellschaften kann institutionelle Mehrsprachigkeit bedeuten, dass für Sprecher von Minderheitssprachen Dolmetsch- und Übersetzungsdienste angeboten werden. So werden in Australien oder Schweden für Migranten Dolmetschdienste in öffentlichen Institutionen angeboten (community interpreting, public service interpreting), während in anderen Ländern wie etwa Österreich, wo ein solcher Service nicht als Standard besteht, häufig Verwandte oder Bekannte als Laiendolmetscher zum Einsatz kommen. Im Rechtswesen, zum Beispiel in Südafrika, in dem neben Englisch und Afrikaans noch elf weitere Sprachen vor Gericht anerkannt sind, gehört Gerichtsdolmetschen zum Alltag. Auch wenn in vielen europäischen Staaten noch der einsprachige Schulunterricht dominiert, selbst wenn die Schülerschaft mehrsprachig ist, finden sich doch zunehmend auch mehrsprachige Unterrichtsformen. Zu den bekanntesten Formen zählt der Immersionsunterricht, der auf einen kanadischen Schulversuch aus den 1970er Jahren zurückgeht. Schüler der englischsprachigen Mehrheitsbevölkerung wurden in diesem Schulversuch in den ersten drei Schuljahren in allen Fächern ausschließlich in Französisch, einer Minderheitensprache in Kanada, unterrichtet. Diglossie Bei Diglossie wird der Gebrauch zweier oder mehrerer Sprachvarianten auf unterschiedliche Domänen verteilt, wobei die wichtigsten Domänen Familie, Freunde, Arbeitsplatz und öffentliche Sphäre (Institutionen wie Behörden oder Schule) sind. So spricht man beispielsweise am Arbeitsplatz anders als in der Familie oder unter Freunden. Diglossie ist also eine funktionelle Verteilung von zwei Varietäten einer Sprache auf unterschiedliche Situationen, zum Beispiel Standarddeutsch und ein Schweizer Dialekt. In der ursprünglichen Definition der Diglossie nach Charles Ferguson unterscheidet die Sprachwissenschaft zwischen einer Hochsprache (High Variety, H-Varietät) und einer Low Variety (L-Varietät) wie eine Standardsprache und ein Dialekt. Joshua Fishman hat die ursprüngliche Definition so erweitert, dass man auch von Diglossie spricht, wenn es sich nicht um zwei Varietäten einer Sprache, sondern um zwei verschiedene Sprachen handelt. Ein Beispiel dafür sind Immigranten, die in der Familie oft ihre Muttersprache verwenden, aber im Alltag beim Einkauf, in Behörden, in der Schule oder am Arbeitsplatz die Mehrheitssprache der Gesellschaft. In vielen Sprachgemeinschaften gibt es nicht nur zwei Varietäten, zwischen denen Sprecher je nach Kontext wechseln, sondern sogar drei und mehr, etwa in Afrika. So werden in Kenia neben den offiziellen Sprachen Englisch und Suaheli noch einige Bantusprachen gesprochen. In der Ukraine gibt es wiederum deutschsprachige Minderheiten, die neben ihrer Muttersprache, einem deutschen Dialekt, noch Hochdeutsch, Ukrainisch, Russisch und Ungarisch sprechen. Ursachen für gesellschaftliche Mehrsprachigkeit Es gibt mehrere Ursachen für Mehrsprachigkeit. Diese sind meist politischer und historischer Natur. Militärische Eroberungen und Annexionen Eroberungen und Annexionen führen oft dazu, dass sich die Sprache der Eroberer im eroberten Territorium ausbreitet. So breiteten sich Latein, Griechisch und Arabisch durch Eroberungen in vielen Teilen der Welt aus. Kolonisation Eine erste bedeutende Ursache ist die Ausbreitung eines Landes zur Zeit der Kolonisation. „Bei einer territorialen Eroberung durch Expansion eines Staates bringt das Eroberland seine Sprache mit in das eroberte Land und installiert diese dort durch Zwang.“. Dies war zum Beispiel bei den französischen Kolonialeroberungen in Afrika der Fall. Auch wenn nun die ehemals eroberten Länder keine Kolonien mehr sind, so hat sich die französische Sprache jedoch etabliert und wurde die offizielle Sprache dieser Länder. „Hinzuzufügen ist, dass die willkürlichen Grenzziehungen bei der Aufteilung Afrikas durch die Kolonialmächte dazu beigetragen hat, dass einzelne Staaten mehrere Sprachgruppen beherbergen, da die Staatsgrenzen größtenteils mitten durch Stammesgebiete verlaufen. Wenn somit vor der kolonialen Invasion jeder Stamm sein Gebiet und seine Sprache hatte, so verteilen sich die unterschiedlichen Sprachgruppen auf verschiedene Staatsgebiete. Dadurch entsteht Mehrsprachigkeit nicht nur durch Kontakt des Französischen mit den autochthonen Sprachen, sondern auch durch den Kontakt der autochthonen Sprachen untereinander.“ Migration und Immigration Eine andere Motivation, eine fremde Sprache zu erlernen, ist die Migration. Für eine sprachliche Minderheit ist es oftmals unausweichlich notwendig, die Sprache des Gastlandes zu erlernen, aber je größer die sprachliche Minderheit, desto geringer der Zwang zum Spracherwerb. Gesellschaftliche Mehrsprachigkeit entstand im Laufe der Geschichte bis heute durch Arbeits- und Fluchtmigration sowie durch berufliche Mobilität und Tourismus. In Grenzregionen, in urbanen Regionen und in Regionen mit sprachlichen Minderheiten ist Mehrsprachigkeit Alltag. Sprachpolitik Eine dritte Ursache zur Entstehung von Mehrsprachigkeit ist Sprachpolitik. Diese kann die gezielte Förderung oder Unterdrückung von Sprachen und damit deren Sprecher zum Ziel haben. Während des Franquismus wurden beispielsweise in Spanien die Minderheitensprachen der Basken und Katalanen gezielt unterdrückt – die daraus entstehenden Konflikte mit der spanischen und (im Falle des Baskenlandes) der französischen Regierung dauern bis heute an. Andererseits führte beispielsweise die aktive Förderung des modernen Hebräisch in Israel zur Etablierung einer neuen Nationalsprache. Die Europäische Union fördert Mehrsprachigkeit, unter anderem durch den gemeinsamen europäischen Referenzrahmen für Sprachen und im Rahmen des EU-Programms Erasmus+: „Mehrsprachigkeit ist einer der Eckpfeiler des europäischen Aufbauwerks und ein starkes Symbol für das Streben der Europäischen Union nach Einheit in der Vielfalt. Sprachkenntnisse zählen zu den Kompetenzen, die Beschäftigungsfähigkeit verbessern und die Nutzung bestehender Chancen ermöglichen. Die EU hat beschlossen, dass jeder Bürger Gelegenheit haben sollte, bereits von klein auf mindestens zwei Fremdsprachen zu lernen. Die Förderung des Spracherwerbs und der sprachlichen Vielfalt ist eines der spezifischen Ziele des Programms.“ Globalisierung Die Globalisierung von Politik und Wirtschaft spielt ebenfalls eine wichtige Rolle für die Entwicklung von Mehrsprachigkeit. Die Fähigkeit, mindestens eine Fremdsprache zu beherrschen, wird immer mehr als eine Grundvoraussetzung für moderne Berufsausbildung angesehen. Deshalb werden in vielen Ländern an höheren Schulen Fremdsprachen, zum Beispiel Englisch, unterrichtet und führten dazu, dass viele Einwohner dieser Länder auf diese Weise ein gewisses Maß an Mehrsprachigkeit erreichen. Ferner ist Kompetenz in mehreren Sprachen für viele Arbeitsplätze zunehmend eine Voraussetzung. Durch die Globalisierung entstehen außerdem Migrationsbewegungen, die Mehrsprachigkeit befördern. Für Migranten, die in fremden Sprachgebieten wohnen, ist Mehrsprachigkeit meist lebenswichtig. Schließlich ist Globalisierung durch weltweite Warenströme gekennzeichnet, die ebenfalls zu mehr Mehrsprachigkeit in vielen Bereichen führen: Zum einen hat die Globalisierung zwar eine gewisse Dominanz des Englischen als wichtige Weltsprache verursacht. Andererseits befördert die Globalisierung auch das Interesse an lokalen Sprachen. Durch den ökonomischen Druck, Produkte in vielen Märkten weltweit zu verkaufen, wird es zunehmend wichtig, diese Produkte passend für diese Märkte anzubieten. Bei Software bedeutet das, die Software sprachlich und rechtlich an die Gegebenheiten eines Landes anzupassen (Lokalisierung). Lokalisierung kann auch ein Vorteil bei der Vermarktung eines Produkts sein. Formen mehrsprachigen Sprechens Code-Switching Als Code-Switching bezeichnet man den „Wechsel zwischen verschiedenen Sprachvarietäten bei bilingualen bzw. multilingualen Sprechern je nach Erfordernissen der Kommunikationssituation“. Wurde das Phänomen früher als Defizit und Unfähigkeit gesehen, die beteiligten Sprachen auseinanderzuhalten, sieht die sprachwissenschaftliche Forschung dies heute anders. So wird Code-Switching als Fähigkeit der multilingualen Sprecher betrachtet, die Kommunikation zu optimieren. Die Sprecher setzen beide Sprachen systematisch ein, um sich möglichst genau auszudrücken. Interferenz Unter Interferenz versteht man in der Sprachwissenschaft die Übertragung von Strukturen von einer Sprache in die andere. Dies kann sich auf verschiedene sprachliche Ebenen beziehen, einschließlich der Aussprache, des Wortschatzes und der Grammatik. Tritt Interferenz in der Aussprache auf, spricht man umgangssprachlich auch von einem ausländischen Akzent. Auf der grammatischen Ebene kann dies zum Beispiel die Übernahme des Satzbaus von einer Sprache in die andere sein oder die Wahl einer Präposition, die in der einen Sprache zwar korrekt, in der anderen aber ungrammatisch ist: Ich hab’ das auf dem Fernsehen gesehen (Englisch: I’ve seen it on TV) Multilingualer Spracherwerb Arten des Zweitspracherwerbs Man unterscheidet zwischen verschiedenen Arten des Zweitspracherwerbs. Einerseits kann ein Individuum gleichzeitig mehrere Sprachen erwerben (simultaner Zweitspracherwerb). Dies ist zum Beispiel möglich, wenn die Eltern des Kindes unterschiedliche Sprachen sprechen. Zweitspracherwerb kann andererseits auch sukzessiv erfolgen, wenn ein Kind erst nach dem vollständigen Erwerb seiner Muttersprache eine andere Sprache, zum Beispiel in der Schule, dazulernt. Der Spracherwerb kann im Rahmen der Alltagskommunikation erfolgen oder mittels Unterricht; dies wird in der Fachliteratur oft als ungesteuerter vs. gesteuerter Spracherwerb bezeichnet. Oft wird in diesem Zusammenhang auch zwischen Spracherwerb (acquisition) und Sprachenlernen (learning) unterschieden: Die ungesteuerte Mehrsprachigkeit ist ein unbewusster und impliziter Vorgang der in natürlicher Umgebung stattfindet. Die neu erlernte Sprache erfolgt durch alltägliche soziale Kontakte wie etwa beim Spielen mit Spielkameraden. Bei der gesteuerten Mehrsprachigkeit wird die neue Sprache bewusst und explizit erlernt und findet mit Lehrern innerhalb von Institutionen statt, wie zum Beispiel in der Schule. In Deutschland werden beide Arten, gesteuerter und ungesteuerter Spracherwerb, durch die verschiedenen Aneignungskontexte den Begriffen Deutsch als Fremdsprache (DAF) und Deutsch als Zweitsprache (DAZ) zugeordnet. Deutsch als Fremdsprache wird in der Schule von einer Lehrkraft didaktisch übermittelt und gelernt, hier erfolgt also ein gesteuerter Spracherwerb. Deutsch als Zweitsprache erfolgt hingegen auf natürliche Weise und in einer natürlichen Umgebung. Allerdings lassen sich der gesteuerte und der ungesteuerte Spracherwerb nicht immer klar trennen. Beide Möglichkeiten sind oft gekoppelt. Dies hängt immer mit dem jeweiligen Land zusammen. Wenn zum Beispiel ein DAF-Unterricht in einem deutschsprachigen Land stattfindet, lässt sich der gesteuerte und ungesteuerte Spracherwerb nicht mehr klar unterschieden, denn die Lernenden haben gleichzeitig Kontakt mit deutschen Muttersprachlern in einer natürlichen Umgebung. Sie erwerben die Sprache also auch ungesteuert über das Hören und Sprechen mit Muttersprachlern. Dies gilt auch für Migrantenkinder. Sie lernen zum Beispiel die Sprache des Gastlandes in der Schule (gesteuert), aber auch im Umgang mit Gleichaltrigen (ungesteuert). Bedingungen des natürlichen Mehrspracherwerbs Natürlichen Mehrspracherwerb kann unter verschiedenen Bedingungen stattfinden: gemischtsprachige Familien (Vater spricht L1, Mutter spricht L2, die Umwelt spricht L1 oder L2) gemischtsprachige Familien (Vater spricht L1, Mutter spricht L2) in einer anderssprachigen Umwelt (L3) eine Familiensprache (L1), eine Umweltsprache (L2) (Kindergarten, Schule, Außenwelt) Wenn in gemischtsprachigen Familien ein Elternteil eine Sprache, der andere Elternteil eine andere Sprache spricht, nennt man das in der Literatur das Prinzip „eine Person – eine Sprache“. Hierbei soll jeder Elternteil mit den Kindern seine Muttersprache sprechen, weil der Sprachgebrauch somit an bestimmte Personen gebunden ist. Kinder können daher zwischen „Papasprache“ und „Muttersprache“ unterscheiden, wenn sie ihr mehrsprachiges Lexikon aufbauen. Die Kinder werden sich bei dem „eine Person – eine Sprache“-Prinzip schon sehr früh bewusst, dass sie mehrere Sprachen sprechen. Spracherwerb in gemischtsprachigen Familien ist meist simultaner Erwerb der zwei Sprachen. Beim Spracherwerb von Kindern aus Migrantenfamilien findet häufig der Zweitspracherwerb erst statt, wenn der Erwerb der Muttersprache abgeschlossen ist. Die Kinder lernen erst die Herkunftssprache der Familie innerhalb des Familienkreises, bevor sie dann in Kindergarten und Schule die Umgebungssprache des Landes, in dem die Familie wohnt, lernen. In diesem Fall setzt der Erwerb erst ab dem Alter von ca. drei bis vier Jahren ein und ist damit eher in sukzessiver Zweitspracherwerb. Chancen und Probleme der Mehrsprachigkeit In der Literatur werden Chancen und Probleme der Mehrsprachigkeit diskutiert. Während früher Mehrsprachigkeit hauptsächlich als problematisch für Individuum und Gesellschaft gesehen wurde, gilt dies heute als überholt oder wird differenzierter bewertet. Außerdem wird hervorgehoben, dass Mehrsprachigkeit heute in vielen Fällen eine Notwendigkeit ist und für Individuen und Gesellschaft viele Vorteile bringe. Probleme der Mehrsprachigkeit Sprachliche und psychologische Probleme Ältere Ansichten zur Mehrsprachigkeit, die bis ins 19. Jahrhundert zurückgehen, sahen in einem bilingualen Spracherwerb eine Gefahr für die sprachliche und psychologische Entwicklung des Kindes. So argumentierten Kritiker der bilingualen Erziehung bis ins 20. Jahrhundert, dass Mehrsprachigkeit intellektuelle Zurückgebliebenheit, Sprachstörungen wie Stottern und soziale Marginalisierung auslöse. Diese Ansichten gelten heute als überholt. Studien zu Stottern haben gezeigt, dass es keinen direkten Zusammenhang zwischen Bilingualismus und Stottern gibt. Studien zur Persönlichkeitsentwicklung von Zweisprachigen haben ergeben, dass der Erwerb von zwei Sprachen keine Tendenz zu psychologischen Problemen verursacht, aber zweisprachige Individuen müssen angesichts der Konfrontation mit zwei Kulturen unter Umständen mehr Aufwand investieren, um ihre persönliche Identität zu entwickeln. Obwohl diese Ansichten aus wissenschaftlicher Sicht als überholt gelten, halten sich Vorbehalte gegen eine zweisprachige Erziehung noch bis ins 20. Jahrhundert. So gibt es Studien aus den 1970er und 1980er Jahren, die zeigen, dass Ärzte, Schulpsychologen und Lehrer immer noch Eltern von einer zweisprachigen Erziehung abraten und auf angebliche psychologische und sprachliche Nachteile für das Kind verweisen. Schwächung der nationalen Einheit Die Romantik des 18. und 19. Jahrhunderts sah einen engen Zusammenhang zwischen Sprache, Identität und nationalem Zusammenhalt. Diese Ansicht hatte langfristige Konsequenzen für die Bewertung der Mehrsprachigkeit. So sprachen sich etwa prominente Erzieher wie Turnvater Jahn strikt gegen eine zweisprachige Erziehung aus, weil aus ihrer Sicht dies die Entwicklung des Kindes verzögern würde. Außerdem, so die Ansicht Jahns, wenn das Kind mit zwei Sprachen und damit zwei speziellen Sichten der Welt konfrontiert sei, sei es zwischen zwei Weltanschauungen hin- und hergerissen. Auch im 20. Jahrhundert verfolgten viele europäische Nationalstaaten eine Politik, Minderheitensprachen zu unterdrücken. Mehrsprachigkeit wird in diesem Zusammenhang als ein Zwischenstadium betrachtet zwischen Monolingualismus der Herkunftssprache und Monolingualismus in der Sprache des Landes sowie ein Mangel an Akkulturation und Integration in die Mehrheitsgesellschaft. Neuere Forschungsergebnisse zeigen, dass die Sprachkompetenzen Mehrsprachiger nicht zwangsläufig einen Einfluss auf das eigene Identitätsverständnis haben müssen und die nationale Zugehörigkeit stärker durch andere Faktoren bedingt ist. Mehrsprachigkeit als Sprachbarriere Roth und Eichinger nennen Mehrsprachigkeit eine Sprachbarriere für die Menschen. Da, so ihre Ansicht, ein Mehrsprachiger keine seiner Sprachen mit fester Sicherheit sprechen könne (da alle Sprachen sich gegenseitig beeinflussten), könne dies dazu führen, dass sich niemand in einer mehrsprachigen Gesellschaft richtig miteinander verständigen könne. In Bezug auf Migrantenfamilien verhindere dies ebenfalls ihre Integration in die und ihre Partizipation an der Gesellschaft. Aufwand Eine der Schwierigkeiten bei der Mehrsprachigkeit ist der Weg, der dahin führt. Eine zweite oder dritte Sprache zu erlernen, kostet den Lerner einen großen persönlichen Aufwand. Wenn die gelernte Sprache länger nicht eingesetzt wird, gehen Sprachfähigkeiten auch wieder verloren. Abhängig vom Kontext, in dem man lernt, muss man von unterschiedlich hohen Kosten ausgehen, so wie unter anderem durch Sprachkurse und durch Bücher zur Unterstützung des Lernprozesses. Debatte um Halbsprachigkeit Eine Debatte in der Sprachwissenschaft dreht sich um den Begriff der sogenannten Halbsprachigkeit (semilingualism). Dahinter steckt die These, dass Individuen, die zwei- oder mehrsprachig aufwachsen, Gefahr laufen, keine der Sprachen vollständig und korrekt zu lernen. Dies führe letztlich zur Unsicherheit des Ausdruckes und Armut des lebendigen Wortschatzes. Ausgangspunkt der Debatte war Forschung in den 1970er Jahren zu Kindern finnischer Immigranten in Schweden. Tests zeigten, dass diese schlechte Sprachkenntnisse in ihrer Familiensprache Finnisch vorwiesen, als sie eingeschult wurden, und auch in Schwedisch schlechter abschnitten als ihre einsprachigen schwedischen Schulkameraden. Linguisten, die sich mit dem Konzept Semilingualismus befassen, vertreten unter anderem die These, dass die schlechten Ergebnisse auf die Tatsache zurückzuführen seien, dass die Schüler ihre Erstsprache noch nicht vollständig erworben haben, als sie im schulischen Umfeld gezwungen waren, schon eine Zweitsprache zu erwerben. Diese Linguisten warben für einen sukzessiven Spracherwerb, d. h. einen Erwerb der Zweitsprache erst nach dem vollständigen Erwerb der Erstsprache. Weitere Studien lieferten zu der Frage, ob Erwerb von zwei Sprachen zu Halbsprachigkeit führt, differenziertere Ergebnisse. So haben Forscher in weiteren Studien gezeigt, dass das Abschneiden von zweisprachigen Kindern in Sprach- und Intelligenztests von vielen Faktoren abhängt, darunter die Einstellung der Lehrer gegenüber Minderheiten, die Einstellung der Eltern, sprachlicher, sozioökonomischer und kultureller Hintergrund sowie das Design der Tests, um sprachliche und kognitive Fähigkeiten zu messen. Studien haben auch gezeigt, dass es nicht für alle Kinder zwingend ist, dass sie in ihrer Muttersprache unterrichtet werden müssen und erst eine zweite Sprache lernen können, wenn sie die erste stabil beherrschen. Suzanne Romaine sagt zusammenfassend nach einem Überblick über linguistische Studien ab den 1970er Jahren, dass für eine hohe oder höhere Kompetenz in zwei Sprachen es vor allem wichtig sei, die Sprache durch Unterricht zu fördern, die weniger Chancen hat, sich durch andere Umstände gut zu entwickeln. Romaine sagt außerdem, dass es ein Mythos sei, das Zweisprachigkeit an sich die Ursache für ein schlechtes Abschneiden in der Schule sei. Vielmehr spielen sozioökonomische Faktoren hier die entscheidende Rolle, und oft seien Kinder in einem Teufelskreis gefangen: Weil die Schule ihre Herkunftssprache nicht fördert, sind ihre Fähigkeiten darin schwach. Gleichzeitig können sie aufgrund dessen in der Schulsprache nur schwach abschneiden, was dann wiederum als Argument genutzt wird, sie als „semilingual“ zu bezeichnen und Zweisprachigkeit zu unterdrücken. Chancen der Mehrsprachigkeit Kognitive Vorteile Wie Studien belegen, haben mehrsprachige Individuen gegenüber einsprachigen Individuen kognitive Vorteile. Kinder, die mehrsprachig aufwachsen haben unter anderem eine größere kommunikative Kompetenz, was sich unter anderem dadurch zeigt, dass sie sorgfältig auswählen, welche Sprache sie mit welchem Gesprächspartner verwenden. Außerdem verfügen mehrsprachige Kinder über eine größere Aufmerksamkeitskontrolle. Forscher führen dies darauf zurück, dass diese Kinder es gewohnt sind, ihre Aufmerksamkeit darauf zu verwenden, eine Sprache zu verwenden und gleichzeitig die zweite zu blockieren, und diese erhöhte Aufmerksamkeit auch für andere kognitive Aufgaben verwenden können. Kinder sowie Jugendliche, die mit mehreren Sprachen aufwachsen, bauen auch schneller ein metasprachliches Bewusstsein auf. Mehrsprachige Kinder haben hier einen Vorteil, weil ihnen durch ihre zwei oder mehr Sprachen bewusster ist, dass zum Beispiel Wörter Symbole sind, die auf Dinge in der Außenwelt verweisen. Auch nützt zweisprachigen Kindern hier ihre erhöhte Aufmerksamkeitskontrolle: Sie können so besser Wortgrenzen feststellen und grammatische Regeln verstehen, da sie eher auf diese Aspekte aufmerksam werden als Einsprachige. Dies führt dazu, dass sie in einigen Sprachtests besser abschneiden als Einsprachige: So gelingt es ihnen schneller als einsprachigen Kindern, im Rahmen eines Sprachtests ungrammatische Formen in Sätzen zu identifizieren. Erkennung von Wortgrenzen läuft bei mehrsprachigen Kindern auch schneller, so dass sie einsprachigen Kindern beim Lesenlernen um einige Monate voraus sind, wie eine australische Studie gezeigt hat. Erhöhte Kreativität Tests haben gezeigt, dass mehrsprachige Individuen, die beide Sprachen flüssig beherrschen, auch kreativer im Vergleich zu einsprachigen Personen sind. So zeigen auf Biografien gestützte Studien, dass man zum Beispiel in Japan besonders viele Kreative findet, die sich im Ausland aufgehalten oder bei ausländischen Lehrern studiert haben. Ferner konnte in Tests gezeigt werden, dass zweisprachige Testpersonen einsprachige Personen bei sprachlicher Originalität übertreffen und auch besser bei Tests zu figurativer Originalität abschneiden, bei denen vorgegebene Bilder ergänzt, neu kombiniert oder neu erstellt werden müssen. Interkulturelles Verständnis und berufliche Vorteile Die Mehrsprachigkeit bringt des Weiteren sprachpragmatische Aspekte mit sich. Zwei- und Mehrsprachigkeit erweitert den Horizont des Einzelnen. Dies bezieht sich zum einen auf die interkulturelle Verständigung, aber zum anderen ebenfalls auf die individuellen Bildungsmöglichkeiten. Mehrere Sprachen sprechen und verstehen zu können, bringt im schulischen und im beruflichen Feld viele Vorteile mit sich. Bedeutung für die Gesellschaft Mehrsprachige Gesellschaften haben Vorteile beim Aufbau internationaler Beziehungen. Für Wirtschaftsunternehmen sind Angestellte mit Sprachkenntnissen in der heutigen globalen Welt ebenfalls von Vorteil. Außerdem können mehrsprachige Angestellte aufgrund ihrer interkulturellen Kenntnisse auch zwischen Kulturen vermitteln. Eine Gesellschaft profitiert außerdem auch vom kreativen Potential mehrsprachiger Sprecher. Mehrschriftlichkeit Unter Mehrschriftlichkeit oder Mehrschriftigkeit wird die Beherrschung der Schriftsysteme und Orthografieregeln von mehreren Sprachen verstanden. Darüber hinaus wird darunter auch die Fähigkeit subsumiert, sich schriftlich in komplexen Satzstrukturen und mit umfangreichem Wortschatz auszudrücken sowie Texte angepasst an Adressaten und Sachthema zu verfassen. Eine Sprache kann zwar durch das Eintauchen in eine anderssprachige Gesellschaft erlernt werden, der Schriftspracherwerb ist dabei jedoch normalerweise an institutionelle Vermittlung, d. h. an Schulunterricht, gekoppelt. Migrantenkinder, die zum Beispiel in Deutschland in die Schule gehen, lernen in der Regel nur die deutsche Sprache als Schriftsprache, nicht ihre Muttersprache. Die Muttersprache bleibt oft lediglich „Haussprache“, d. h. sie wird nur in der Familie mündlich verwendet. Die Kinder wachsen also in einem Land mit einer anderen Sprache auf und werden auch in der Schule nur in dieser Sprache alphabetisiert. Will ein Individuum eine balancierte Mehrsprachigkeit erreichen, dürfte die Mehrschriftlichkeit eine wichtige Komponente sein. Deshalb muss Mehrschriftlichkeit bei mehrsprachig aufwachsenden Kindern besonders gefördert werden. Siehe auch Zweisprachigkeit Mehrschriftigkeit Code-Switching Makkaronische Dichtung Literatur Einführungen / Überblicke Brigitta Busch: Mehrsprachigkeit. 2. Auflage. Facultas, Wien 2017, ISBN 978-3-8252-4789-8. S. Chilla, M. Rothweiler, E. Babur: Kindliche Mehrsprachigkeit. Grundlagen-Störungen-Diagnostik. Reinhardt, München 2010, ISBN 978-3-497-02165-9. Charlotte Hoffmann: An Introduction to Bilingualism. Routledge, London/ New York 2014, ISBN 978-0-582-29143-0. Norbert Kühne: Wie viele Sprachen sprichst du? – Mehrsprachigkeit aus psychologischer und pädagogischer Sicht (2), Raabe Verlag, Stuttgart 2018. N. Müller, T. Kupisch, K. Schmitz, K. Cantone: Einführung in die Mehrsprachigkeitsforschung. Narr, Tübingen 2001, ISBN 3-8233-6674-2. Claudia Maria Riehl: Mehrsprachigkeit: Eine Einführung. Wissenschaftliche Buchgesellschaft, Darmstadt 2014, ISBN 978-3-534-25522-1. Suzanne Romaine: Bilingualism. 2. Auflage. Blackwell, Oxford 1995, ISBN 0-631-19539-4. Spezialliteratur Yilmaz Ali; Schweizer Nachrichten für internationale Medien Soliday (Hrsg.): Mehrsprachigkeit in der Schweiz – Gewinn oder Nachteil. Basel 2004. Colin Baker: Zweisprachigkeit zu Hause und in der Schule. Ein Handbuch für Erziehende. Verlag auf dem Ruffel, Engelschoff 2007, ISBN 978-3-933847-11-9. Jean-Louis Calvet: La guerre des langues et les politiques linguistiques. Payot, Paris 1987, ISBN 2-228-14200-X. Detlef Heints, Jürgen Eugen Müller, Ludger Reiberg: Mehrsprachigkeit macht Schule. Kölner Beiträge zur Sprachdidaktik. Gilles & Francke, Duisburg 2006, ISBN 3-925348-68-9. L. Eichinger: Sprachliche Kosten-Nutzen-Rechnung und die Stabilität mehrsprachiger Gemeinschaften. In: Uta Helfrich, Claudia Maria Riehl (Hrsg.): Mehrsprachigkeit in Europa – Hindernis oder Chance? Egert Verlag, Wilhelmsfeld 1994, ISBN 3-926972-41-6, S. 31–54. Sebastian Fink, Martin Lang, Manfred Schretter: Mehrsprachigkeit. Vom Alten Orient bis zum Esperanto (= dubsar. Band 2). Zaphon, Münster 2018, ISBN 978-3-96327-004-8. Csaba Földes: Interkulturelle Linguistik: Vorüberlegungen zu Konzepten, Problemen und Desiderata. Universitätsverlag, Veszprém/ Edition Praesens, Wien 2003, ISBN 3-7069-0230-3 und ISBN 963-9495-20-4. (Studia Germanica Universitatis Vesprimiensis, Supplement; 1; PDF; 4,0 MB) Csaba Földes: Kontaktdeutsch. Zur Theorie eines Varietätentyps unter transkulturellen Bedingungen von Mehrsprachigkeit. Verlag Gunter Narr, Tübingen 2005, ISBN 3-8233-6160-0. (Inhaltsverzeichnis und Volltext; PDF; 2,8 MB) Volker Hinnenkamp: Vom Umgang mit Mehrsprachigkeit. In: Aus Politik und Zeitgeschichte. 8/2010, S. 27–32. E. Koudrjavtseva, T. Volkova: BILIUM-Bilingualism Upgrade Module (Part II): A comprehensive approach to teaching bilingual children language (non-native and another/second native) in the early childhood educational systems (ECES) of the European Union: A framework for an advanced training programme for pre-school teachers and similar structural units in mainstream schools (pupils from the age of 1.5 years to 5 years). RetorikaA, Riga 2014, ISBN 978-9984-865-67-6. Deutsch als Zweitsprache. Spracherwerb, gesteuert, gelenkt. Lehr- und Lernwerkstatt, 2008. M. Ribeaud: Zeitschrift visuell plus. Spracherwerb. http://www.gebaerden-sprache.ch/index.php?spracherwerb Claudia Maria Riehl: Sprachkontaktforschung. Eine Einführung. Narr, Tübingen 2002, ISBN 3-8233-6013-2. Claudia Maria Riehl: Aspekte der Mehrsprachigkeit: Formen, Vorteile, Bedeutung. In: Ludger Reiberg (Hrsg.): Mehrsprachigkeit macht Schule. Gilles & Francke, Duisburg 2006, ISBN 3-925348-68-9, S. 15–23. H. Roth: Mehrsprachigkeit als Ressource und als Bildungsziel. In: Ludger Reiberg (Hrsg.) Mehrsprachigkeit macht Schule. Gilles & Francke Verlag, Duisburg 2006, ISBN 3-925348-68-9, S. 11–14. Sprachenzentrum der Universität und der ETH Zürich, Sabina Schaffner (Hrsg.): Unsere Mehrsprachigkeit, Eine Sammlung von Mehrsprachigkeitsbiografien – Studierende und Mitarbeitende der Universität Zürich und der ETH Zürich erzählen. VDF Hochschulverlag, Zürich 2012, ISBN 978-3-7281-3447-9. Stefan Schneider: Bilingualer Erstspracherwerb. UTB Reinhardt, München 2015, ISBN 978-3-8252-4348-7. Sabine Schrader, Christiane Maas (Hrsg.): Viele Sprachen lernen … ein notwendiges Übel? Chancen und Probleme der Mehrsprachigkeit. Leipziger Universitätsverlag, Leipzig 2002, ISBN 3-935693-54-0. Rita Zellerhoff: Didaktik der Mehrsprachigkeit. Didaktische Konzepte zur Förderung der Mehrsprachigkeit bei Kindern und Jugendlichen, Schulformübergreifende Konzepte unter besonderer Berücksichtigung des Förderschwerpunktes Sprache. Lang, Frankfurt am Main 2009, ISBN 978-3-631-58569-6. Weblinks Stichwort Mehrsprachigkeit – kindergesundheit-info.de: unabhängiges Informationsangebot der Bundeszentrale für gesundheitliche Aufklärung (BZgA) Verein für frühe Mehrsprachigkeit an Kindertageseinrichtungen und Schulen FMKS e.V. Projekt Eurocomprehension: Nutzung der Mehrsprachigkeit zur schnelleren Erlernung des Leseverstehens Themenportal Mehrsprachigkeit des Goethe-Instituts ORF: Indische Dreisprachigkeit: Lösung für Europa? Deutsche Gesellschaft für Sprachwissenschaft (DGfS) zur Mehrsprachigkeit Einzelnachweise Sprachenlernen Angewandte Linguistik Wikipedia:Artikel mit Video
Q30081
500.890965
1598811
https://de.wikipedia.org/wiki/Autoritarismus
Autoritarismus
Autoritarismus ( ‚Einfluss‘, ‚Geltung‘, ‚Macht‘) ist eine diktatorische Herrschaftsform. Nach Juan Linz, der den Begriff in den 1960er Jahren geprägt hat, unterscheidet der Autoritarismus sich vom diktatorischen Totalitarismus durch: begrenzten Pluralismus, keine umfassend formulierte Ideologie, weder extensive noch intensive Mobilisierung. Der begrenzte Pluralismus ist als zentrales Abgrenzungsmerkmal zu sehen. Der Handlungsspielraum von politischen und gesellschaftlichen Akteuren hängt weitgehend von der autoritären Staatsführung ab. In Abgrenzung zum Totalitarismus ist für den Autoritarismus zutreffender von Mentalitäten zu sprechen als von (politischen) Ideologien und Weltanschauungen. Mentalität ist nach Theodor Geiger „subjektive Ideologie“, aber „objektiver Geist“. Mentalitäten sind psychische Prädispositionen und funktionieren formlos. Das Fehlen einer klaren Ideologie bewirkt einen Verlust der Mobilisierungsfähigkeit; der Bevölkerung fehlt eine emotionale Bindung an das System. Daher formulieren autoritäre Regime ihre Politik pragmatisch und versuchen gleichzeitig, allgemeine Wertvorstellungen wie Patriotismus, Nationalismus, Modernisierung und Ordnung durchzusetzen. Soziale und politische Basis autoritärer Systeme Autoritäre Systeme werden von bestimmten sozialen Kräften einer Gesellschaft getragen. Diese bilden gegebenenfalls ihre oligarchische Machtbasis. Diese sozialen Kräfte können in z. B. zivile und militärische Kräfte unterteilt werden. Das heißt, autoritäre Staaten können zivil, militärisch, tribal, religiös oder bürokratisch usw. gestützt sein. Legitimationsmuster autoritärer Systeme Max Weber beschreibt drei Formen der Legitimation: traditionelle, charismatische und rationale Legitimität. In Bezug auf autoritäre Systeme sind nur die traditionelle und charismatische Legitimität von Bedeutung. Traditionell bedeutet nach Max Weber: „die Autorität des ewig Gestrigen: der durch unvordenkliche Geltung und gewohnheitsmäßige Einstellung auf ihre Innehaltung geheiligter Sitten“ – dieses Legitimationsmuster trifft vor allem auf autoritäre Staaten zu, in denen die Religion als Legitimation für den Herrschenden gilt und das Politische nicht vom Sakralen getrennt ist. Beispiele hierfür sind Saudi-Arabien und der Iran, wobei Anklänge an dieses Muster auch in Teilen der westlichen Welt (z. B. Bible Belt), wenn auch mit beschränktem Einfluss, vorzufinden sind. Charismatisch bedeutet nach Max Weber: „aus Begeisterung oder Not und Hoffnung geborene, gläubige, ganz persönliche Hingabe“ – dieses Legitimationsmuster trifft vor allem auf Länder zu, in denen ein politischer Führer Anerkennung in der Bevölkerung erworben und seine Herrschaft in einem autoritären System verankert hat. Als ein Beispiel hierfür kann Kuba unter Fidel Castro angesehen werden. Strukturmuster der politischen Macht In autoritären Systemen ist die Macht in der Regel zentralisiert. Eine horizontale Gewaltenteilung besteht oberflächlich betrachtet allerhöchstens formal. Vergleicht man Industrie- und Entwicklungsländer, kann ein höheres Maß an Personalisierung des Politischen festgestellt werden. Als personalistisch bezeichnet man eine Führung dann, wenn sie in einer Person konzentriert ist. Beziehung zwischen Machthabern und Herrschaftsunterworfenen Das wesentliche Element im Verhältnis von Machthabern und Machtunterworfenen ist die Gewalt „von oben“, meist in Form einer Geheimpolizei, deren Zweck darin besteht, die politische Macht der herrschenden Klasse zu schützen und jegliche Form der Opposition zu unterdrücken. Die politische Partizipation wird von den Machthabern entweder unterbunden oder gesteuert. Die Kommunikationsforscherin Sarah Oats bezeichnete die Rolle der Massenmedien als einen kritischen Faktor beim Abgleiten eines Staates in den Autoritarismus. Zur Stabilisierung eines etablierten Regimes können die verschiedenen Strategien Zensur, Selbstzensur oder Propaganda verfolgt werden. Durch die Kontrolle der großen Medien sei es nach dem Politikwissenschaftler Stephen K. Wegren annähernd ausgeschlossen, dass Medien eine Debatte auslösen können, wie dies eine Funktion von Medien in offenen politischen Systemen der Fall sei. Angesichts der stärker werdenden Popularität rechtspopulistischer Parteien sprechen Medien in den 2010er Jahren von einer Krise des Liberalismus. So hebt etwa der Journalist Thomas Assheuer hervor, dass der Soziologe Ralf Dahrendorf bereits in den 1990er Jahren voraussagte, dass die Globalisierung „eher autoritären als demokratischen Verfassungen Vorschub leisten“ werde. Der deutsche Bundespräsident Frank-Walter Steinmeier warnte 2017 mehrmals – in seiner Antrittsrede vor dem Bundestag, bei seinem ersten Auslandsbesuch in Frankreich sowie bei seiner ersten Rede im Europaparlament – vor einer neuen „Faszination des Autoritären“. Der Herausgeber der Berliner Zeitung Michael Maier nannte wesentliche Kennzeichen, die autoritäre Systeme von einer auf Gewaltenteilung basierenden freiheitlichen Demokratie unterscheiden: „Autoritäre Systeme können über Nacht Maßnahmen verordnen. Sie können die Bürgerrechte nach Belieben einschränken. Polizei- und Überwachungsstaat ersticken Widerstand im Keim. Andersdenkende oder Kritiker werden mundtot gemacht, verschwinden von der Bildfläche – über Nacht. Denunziation ist der Kitt, der Unrechtssysteme im Innersten zusammenhält. Bürokratische Schikanen nötigen die Bürger zum Wohlverhalten. Um sich selbst nicht zu gefährden, misstrauen die Bürger einander und verraten sich gegenseitig. Mitbestimmung, Expertise und Parlamentarismus werden als Fassaden aufrechterhalten. Eine unabhängige Justiz gibt es nicht. Zensur findet statt. Die Würde des Menschen ist eine Frage von Gunst und Willkür. Der Rechtsweg ist ausgeschlossen. Die Entscheidung über Krieg und Frieden ist den Interessen von kleinen Cliquen untergeordnet. Die Macht der Herrschenden ist unantastbar. Der Wille der Machthaber ist unberechenbar. Die Missachtung von kleinsten Vorschriften kann gravierende Folgen haben. Die Vorschriften ändern sich oft über Nacht, manchmal sogar im Nachhinein.“ Er betonte, es sei in Europa „viel zu verlieren“ und sprach von einer Belastungsprobe des europäischen Systems, welches – im Zuge einer schleichenden „globalen Angleichung“ – zunehmend Symptome einer „Anarchie von oben“ zeige. Typologie autoritärer Regime nach Juan J. Linz Folgende Typen autoritärer Regime wurden von Juan J. Linz systematisiert. Sie sind idealtypisch und nur selten deckungsgleich mit real existierenden Regimen. Bürokratisch-militärisches Regime Merkmale: keine mobilisierungsfähige Partei Führung: a-charismatische Militärs Mentalität pragmatisch Dieser Typ folgt meist auf ein liberal-demokratisches System, das über keine Systemloyalitäten oder keine stabile Regierung verfügte. Beispiele: Militärdiktaturen in Lateinamerika 1960er bis 1990er Union Myanmar Thailand Pakistan Ägypten Fidschi Türkei (1960–1961), (1971–1973), (1980–1983) Autoritärer Korporativismus Merkmale: vom Staat verfügte Prozedur der Interessenrepräsentation zwangsadministrative Begrenzung innergesellschaftlicher Konflikte Ideologische Alternative für Gesellschaften, die infolge ihrer ökonomischen und sozialen Komplexität nicht allein mit technokratisch-autoritären Mitteln regiert werden können. Beispiele: Austrofaschismus in Österreich (1934–1938) Estado Novo in Portugal (1933–1974) Horthy-Ungarn (1919/1920–1944) Mobilisierende autoritäre Regime Merkmale: emotionale Legitimationsformen durch eine affektive Identifikation mit der Regierung plebiszitäre Beteiligungsformen sollen dabei helfen, die Unterstützung zu sichern. Beispiele: Franco-Spanien (1939–1976) Erste Slowakische Republik (1939–1945) Postkoloniale mobilisierende Regime Merkmale: begrenzter Pluralismus relative Autonomie der Gesellschaft Heterogene politische Tendenzen und Kräfte Vor allem im postkolonialen Afrika ließen soziale und ökonomische Disparitäten, ethnische, linguale und religiöse Unterschiede der Bevölkerung und eine schwache Bürokratie viele Staatsführer glauben, dass nur ein autoritär geführter Staat Erfolg verheißen würde. Die meisten dieser Regime sind Militärputschen oder der Umwandlung in rein persönliche Herrschaften zum Opfer gefallen. Beispiele: Elfenbeinküste Tansania Burkina Faso Neopatrimoniale Regime Unter Neopatrimonialismus wird ein besonders häufig in Afrika anzutreffender Herrschaftstyp bezeichnet, der als eine Mischform aus klassisch-patrimonialer und legal-rationaler Herrschaft angesehen werden kann. Als Regimetyp ist er zwischen Autokratie und Demokratie anzusiedeln. Kennzeichnende Bestandteile des Neopatrimonialismus sind Klientelismus und politische Patronage. Beispiele: Kamerun Kenia Indonesien Kolumbien Rassendemokratien und Ethnokratien Kennzeichnend für Rassendemokratien und Ethnokratien ist, dass bestimmte ethnische Gruppen von der politischen Partizipation ausgeschlossen werden und keine demokratischen Rechte besitzen. Es wird nicht nur Druck auf die diskriminierte, in den historischen Beispielfällen nicht-weiße Bevölkerung ausgeübt, sondern auch auf Dissidenten aus der privilegierten Schicht (historisch: Weiße), die die Trennungspolitik bekämpfen und in Frage stellen. Beispiele: Südafrika (bis 1994) Rhodesien (bis 1980, dann wieder seit 1987) Südstaaten der USA bis in die späten 1960er Jahre Unvollständige totalitäre und prätotalitäre Regime Merkmale: Entwicklungstendenzen zum Totalitarismus gestoppt oder verzögert Der Prätotalitarismus bezeichnet die Übergangsphase zum Totalitarismus. Beispiele: Spanien nach dem Bürgerkrieg (1939) Deutsches Reich kurz nach der Machtübernahme (1933) Posttotalitäre autoritäre Regime Merkmale: Verblassen utopischer Fernziele, Ritualisierung bzw. formelhafte Erstarrung der Ideologie graduelle soziale, ökonomische und kulturelle – jedoch keine politische – Repluralisierung bürokratischer Führungsstil der politischen Eliten, Tendenz zur Verrechtlichung des Herrschaftshandelns Ritualisierung bzw. Erstarrung der gesellschaftlichen Mobilisierung, bei teilweiser Duldung oder gar Förderung der Flucht ins Privatleben Der Posttotalitarismus bezieht sich vor allem auf die Sowjetunion und ihre osteuropäischen Satellitenstaaten seit der Entstalinisierung. Diese Kategorie enthält noch weitere Subtypen. Subtypen: früher Posttotalitarismus: Bulgarien (1988/89) eingefrorener Posttotalitarismus: DDR (1971–1989), Tschechoslowakei (1977–1989) reifer Posttotalitarismus: Ungarn (1982–1988) Posttotalitarismus mit sultanistischen Zügen: Rumänien unter Ceaușescu Übergang vom Posttotalitarismus zum Autoritarismus: Polen (1980er Jahre) Typologie autoritärer Regime nach Wolfgang Merkel Der deutsche Politikwissenschaftler Wolfgang Merkel definiert zehn unterschiedliche autoritäre Typologien: Kommunistisch-autoritäres Parteienregime Merkmale: Partei als Avantgarde der Arbeiterklasse und damit einziges legitimes Machtzentrum meist Einparteiensystem oder ein solches in Verbindung mit Satellitenparteien (z. B. die Blockparteien in der DDR) neben ihr enger Führungszirkel (meist ein Politbüro) trifft die Entscheidungen kollektives Führungsgremium Beispiele: Sowjetunion 1924–1929, 1953–1956, 1985–1991 Volksrepublik Polen ab 1956 Volksrepublik Ungarn ab 1956 Volksrepublik China seit den 1990er Jahren Jugoslawien unter Tito Faschistisch-autoritäres Regime Merkmale: Führerprinzip Antisozialismus Antiliberalismus korporatistische Ideologie und Organisationsstruktur Parteiarmee Massenmobilisierung legitimatorischer Rückgriff auf vormoderne Mythen und Ordnungsmuster (Germanentum, Hispanität, Latinität) Beispiele: Faschistisches Italien NS-Deutschland bis 1938 Unabhängiger Staat Kroatien Antonescu-Regime in Rumänien Slowakischer Staat Militärregime Allgemeine Merkmale: Militarismus Patriotismus/Nationalismus Nationale Sicherheit Ruhe und Ordnung Modernisierung von Wirtschaft und Verwaltung mehrere Varianten Bürokratisch-militärisches Regime Merkmale: Junta von acharismatischen Militärs ideologiearmer Pragmatismus folgt häufig auf liberale Demokratien Beispiele: lateinamerikanische Militärdiktaturen der 1960er und 1970er Jahre Griechische Militärdiktatur Thailand Südkorea 1961–1988 Militärisches Führerregime Merkmale: meist charismatischer militärischer Führer spätere politische Lösung des Regimes vom Militär Legitimation durch direkt-plebiszitäre Beziehung zum Volk Beispiele: Ungarn unter dem Reichsverweser Miklós Horthy Zweite Polnische Republik unter Józef Piłsudski Paraguay unter Alfredo Stroessner Militärisches Gangsterregime und Warlord-Herrschaft Merkmale: reines Repressionsregime ohne wertorientierte Zielvorstellungen persönliche Bereicherung der Warlords und Privatisierung des Militärs Ergebnis von zerfallender Staatlichkeit meist nur von kurzer Dauer Beispiele: Mobutu-Regime in Zaire (Demokratische Republik Kongo) Afghanistan 1990–1995 Liberia unter Charles Taylor 1997–2003 Somalia seit den 1990er Jahren Korporatistisch-autoritäres Regime Merkmale: „organische Demokratie“ staatlich kontrollierte Wirtschafts- und Berufsstände permante Zwangsschlichtung im nationalen Interesse Beispiele: Estado Novo in Portugal Austrofaschismus Franquistisches Spanien und faschistisches Italien in der Frühphase der Regime Rassistisch-autoritäres Regime Merkmale: Ausschluss einer bestimmten Ethnie oder durch ihre Hautfarbe definierten Bevölkerungsgruppe aus dem demokratischen Prozess und von Bürgerrechten für das in den historischen Fallbeispielen zumeist weiße Mehrheiten bzw. Minderheiten einschließende politische System galten demokratische Normen und Verfahren Beispiele: Südafrika während der Apartheid Rhodesien USA bis zum Bürgerkrieg Autoritäres Modernisierungsregime Merkmale: tritt entweder als Militär-, Einparteien- oder Führerregime auf Fehlen einer traditionellen Herrschaftsform häufig aus Befreiungsbewegungen hervorgegangen Beispiele: Peronistische Regime in Argentinien Ägypten unter Gamal Abdel Nasser Türkei unter Atatürk Algerien unter Ben Bella Militärdiktatur in Chile Theokratisch-autoritäres Regime Theokratie religiöse Heilslehre als staatlich verordnete Weltanschauung Tendenz zum Totalitarismus Beispiele: Iran seit 1979 Tibet (1912–1951) Dynastisch-autoritäres Regime Merkmale: monarchisches Prinzip konstitutionelle Monarchie und nicht-konstitutionelle Monarchie Beispiele: England/Großbritannien 17.–19. Jahrhundert (konstitutionelle Monarchie) Scheichtümer in der Golfregion Königsdiktaturen in Osteuropa während der Zwischenkriegszeit Sultanisch-autoritäres Regime Merkmale: Mischung aus extrem personalisiertem und erratischem Herrschaftsstil Familienklan-Herrschaft Beispiele: Rumänien unter Nicolae Ceaușescu ab den 1970er Jahren Autoritäres Rentenregime Merkmale: Nutzung so genannter Renteneinkommen (vor allem aus Erdölexporten) geringe oder keine Belastung der Untertanen mit Steuern und Abgaben Beispiele: erdölexportierende arabische Länder Autoritarismus in der Sozialpsychologie Der Autoritarismus wird sozialpsychologisch als eine Einstellung, häufig auch als eine Persönlichkeitseigenschaft aufgefasst (autoritäre Persönlichkeit bzw. autoritärer Charakter) oder dient als Oberbegriff für faschistoide und antidemokratische Einstellungen. Psychologisch ist der Begriff doppeldeutig, denn er beschreibt einerseits ein extrem dominantes Verhalten, andererseits die Bereitschaft zur Unterwerfung unter Ranghöhere. Insofern hängen Autoritarismus und Gehorsam zusammen. In ihren bekannten und viel diskutierten Experimenten haben Stanley Milgram (Milgram-Experiment) und Philip Zimbardo (Stanford-Prison-Experiment) das beobachtete Gehorsamkeitsverhalten unter simulierten, für die Teilnehmer realistisch wirkenden Bedingungen untersucht und nach Zusammenhängen mit anderen sozialen Einstellungen und Persönlichkeitsmerkmalen gefragt. Philip Zimbardo: (Die einzige Verbindung zwischen Persönlichkeit und Gefängnisverhalten war der Befund, dass Gefangene mit einem hohen Grad an Autoritarismus unsere autoritäre Gefängnisumgebung länger ertrugen als andere Gefangene.) Die amerikanische Verhaltensökonomin Karen Stenner argumentiert, dass Autoritarismus kein Persönlichkeitsmerkmal sei, sondern als eine Reaktion auf Bedrohungen der normativen Ordnung anzusehen ist, die sich darin äußert, dass das „vorgestellte ‚Wir‘“ zerfällt, was zu Angst vor dem „ethnischen Verschwinden“ und vor Zuwanderung führt. Literatur Anne Applebaum: Die Verlockung des Autoritären: Warum antidemokratische Herrschaft so populär geworden ist. Aus dem Englischen von Jürgen Neubauer. Siedler Verlag, München 2021, ISBN 978-3-8275-0143-1. Originalausgabe: Twilight of Democracy : The Seductive Lure of Authoritarianism. Doubleday, New York 2020, ISBN 978-0-385-54580-8. Erica Frantz: Authoritarianism – What everyone needs to know. Oxford University Press, 2018, ISBN 978-0-19-088020-0. Jürgen Hartmann: Vergleichende Regierungslehre und Systemvergleich. In: Dirk Berg-Schlosser, Ferdinand Müller-Rommel (Hrsg.): Vergleichende Politikwissenschaft. 4. Auflage. Verlag für Sozialwissenschaften, 1997, ISBN 978-3-8100-3860-9, S. 31 ff. Werner Herkner: Lehrbuch der Sozialpsychologie. 6. Auflage. Huber, Bern 2001, ISBN 3-456-81989-7. Juan José Linz: Autoritäre Regime. In: Dieter Nohlen (Hrsg.): Wörterbuch Staat und Politik. Piper, München 1996, ISBN 3-492-22070-3, S. 40–43. Juan José Linz: Totalitäre und autoritäre Regime. Herausgegeben und übersetzt von Raimund Krämer. 3. Auflage. Potsdamer Textbücher 4. WeltTrends, Potsdam 2009, ISBN 978-3-941880-00-9. Juan José Linz: Ein autoritäres Regime: Der Fall Spanien. Herausgegeben und übersetzt von Raimund Krämer und Christoph Sebastian Widdau. Potsdamer Textbücher 13. WeltTrends, Potsdam 2011, ISBN 978-3-941880-35-1. Dieter Nohlen: Autoritäre Systeme. In: Peter Waldmann, Klaus Ziemer (Hrsg.): Die östlichen und südliche Länder (= Lexikon der Politik in 7 Bändern. Band 4). C.H. Beck, München 1997, ISBN 3-406-36908-1, S. 67–74. Lars Rensmann, Steffen Hagemann, Hajo Funke: Autoritarismus und Demokratie. Politische Theorie und Kultur in der globalen Moderne (= Wochenschau Wissenschaft). Wochenschau Verlag, Schwalbach 2011, ISBN 978-3-89974-679-2. Susanne Rippl, Christian Seipel, Angela Kindervater (Hrsg.): Autoritarismus. Kontroversen und Ansätze der aktuellen Autoritarismusforschung. Leske und Budrich, Opladen 2000, ISBN 3-8100-2634-4. Bernd Six: Generalisierte Einstellungen. In: Manfred Amelang (Hrsg.): Enzyklopädie der Psychologie. Differentielle Psychologie und Persönlichkeitsforschung. Band 3. Hogrefe, Göttingen 1966, ISBN 978-3-8017-0553-4, S. 1–50. Max Horkheimer: Autoritärer Staat. In: Ders.: Friedrich Pollock u. a.: Wirtschaft, Recht und Staat im Nationalsozialismus. Analysen im Institut für Sozialforschung 1939–1942. Hg. Helmut Dubiel, Alfons Söllner. Europäische Verlagsanstalt und Syndikat Buchgesellschaft, Frankfurt 1981, ISBN 3-434-00469-6, S. 55–80. Wolfgang Merkel Systemtransformation. Eine Einführung in die Theorie und Empirie der Transformationsforschung. VS Verlag für Sozialwissenschaften, Wiesbaden 2010, ISBN 978-3-531-17201-9, S. 43–48. Weblinks Autoritarismus und Ausländerfeindlichkeit von Christoph Lüscher, Universität Zürich, 1997 Politikwissenschaftliche Literatur zum Thema Autoritarismus in der Annotierten Bibliografie der Politikwissenschaft Einzelnachweise Sozialpsychologie Gesellschaftsform Rechtsstaat
Q6229
383.811728
469693
https://de.wikipedia.org/wiki/Photochemie
Photochemie
Unter dem Begriff Photochemie versteht man chemische Reaktionen, die durch Einwirkung von Licht initiiert werden. Die Grundvoraussetzung hierfür ist eine Absorption des Lichtes durch das Molekül, das reagieren soll. Das heißt, die Wellenlänge des verwendeten Lichts muss zum Absorptionsverhalten des Moleküls passen. Neben der direkten Anregung gibt es auch Photoreaktionen, bei denen zunächst ein Photosensibilisator angeregt wird und dieser dann Energie auf die zur Reaktion zu bringenden Moleküle überträgt. Die Absorption eines Lichtquants führt zu energetisch (elektronisch) angeregten Zuständen, die dank der Anregungsenergie chemische Reaktionen eingehen können. Chemische Umwandlungen konkurrieren dabei mit photophysikalischen Deaktivierungsprozessen wie der Photoemission aus dem angeregten Singulett-Zustand (Fluoreszenz) oder aus dem Triplett-Zustand (Phosphoreszenz) sowie der strahlungslosen Deaktivierung. Das relative Ausmaß, mit dem die einzelnen Prozesse durchlaufen werden, wird durch die Quantenausbeuten ausgedrückt. Die Summe der Quantenausbeuten beträgt maximal 1 – außer bei Kettenreaktionen. Da die Absorption eines Lichtquants zu einer elektronischen Anregung führt, können im angeregten Zustand Reaktionen beobachtet werden, die im elektronischen Grundzustand des Moleküls nicht erlaubt sind (vgl. Woodward-Hoffmann-Regeln, perizyklische Reaktionen). Photochemische Reaktionen sind häufig eine gute Methode, um komplexe und hoch gespannte Moleküle aufzubauen. Neben der Einwirkung von Licht lässt sich die Photochemie auch mit energiereicheren Quanten betreiben. Mit solchen photoinduzierten Prozessen beschäftigt sich unter anderem die Röntgenphotochemie bzw. die Hochenergiephotochemie. Hierbei findet die Synchrotronstrahlung in der Chemie eine Anwendung. Beispiele für photochemische Reaktionstypen Spaltungen (Bindungshomolysen), wie sie bei Photoinitiatoren beobachtet werden – u. U. gefolgt von weiterer Fragmentierung der entstehenden Radikale, vgl. die Abspaltung von Kohlenmonoxid aus Carbonylverbindungen. Photoisomerisierungen, wie die Bildung von Fulven und Benzvalen aus Benzol über den ersten angeregten Singulettzustand oder die Bildung von Dewarbenzol aus dem zweiten angeregten Singulettzustand von Benzol. Elektrocyclische Reaktionen, etwa die Umwandlung von Ergosterin zu Prävitamin D, die Cyclisierung von Butadienen zu Cyclobutenen, die Cyclisierung von cis-Stilben zu Dihydrophenanthren oder von Diphenylamin zu Dihydrocarbazol. Umlagerungen, wie die Isomerisierung von Cycloheptatrien zu Toluol. Lichtinduzierte Kettenreaktionen: Reaktion von Chlor und Wasserstoff (Chlorknallgas) zu Chlorwasserstoff, deren Reaktionsmechanismus insbesondere von Walther Nernst und Max Bodenstein aufgeklärt wurde. Photochlorierung von Alkanen, z. B. Methan. Regioselektive Seitenketten-Halogenierung von alkylierten Aromaten (einfachstes Beispiel: Chlorierung von Toluol an der Methylgruppe) gemäß der „SSS“-Regel (Sonne, Siedehitze, Seitenkette). Sulfochlorierung von Alkanen mit Schwefeldioxid und Chlor. Photo-Fries-Verschiebung von Phenylestern unter Bildung von Ketonen mit einer Hydroxy-Funktion in ortho- oder para-Stellung am Phenylring. [2+2]-Cycloadditionen von Alkenen im Zuge einer Photodimerisierung bzw. Photocyclisierung, die zu Cyclobutanen (Vierring) führen, vgl. die Bildung von Quadricyclan durch Belichtung von Norbornadien oder die Photodimerisierung von Cyclopenten. [2+2]-Cycloaddition von Alkenen und Ketonen in der Paternò-Büchi-Reaktion. α-Spaltung von Thiolestern zu Aldehyden und Disulfiden. Bildung von Thioxanthonen durch Umlagerungsreaktionen. Isomerisierungen, wie cis-trans-Isomerisierungen (Standardbeispiele: cis-/trans-Stilben, cis-/trans-Azobenzol, Malein-/Fumarsäure). Zum Beispiel entsteht bei der Bestrahlung von Maleinsäure beziehungsweise Fumarsäure in beiden Fällen die gleiche Mischung aus 75 % Maleinsäure und 25 % Fumarsäure. Die Lage des Photogleichgewichts kann durch die Anregungswellenlänge gesteuert werden. Photosensibilisierte Reaktionen, d. h. Photoisomerisierungen, Photocycloadditionen, unter Zusatz eines Photosensibilisators, die zum Teil enantioselektiv verlaufen. Photoreaktionen in der Biologie: Ein bekanntes Beispiel für eine chemische Reaktion mit photochemischen Reaktionsschritten ist die Photosynthese. Ein weiteres Beispiel ist das Sehen mit dem menschlichen Auge. Dabei findet in den Stäbchen der Netzhaut des Auges eine Photoisomerisierung des für das Hell-Dunkel-Sehen verantwortlichen Rhodopsins statt, genauer gesagt, eine lichtgesteuerte cis-trans -Isomerisierung des 11-cis-Retinals, das ein Bestandteil des Chromophors Rhodopsin ist. Die ersten photochemischen Experimente gehen auf Giacomo Luigi Ciamician zurück. Die ersten zusammenfassenden Bücher über die präparative organische Photochemie hat Alexander Schönberg verfasst. Ein photophysikalischer Prozess in der Biologie: Fluoreszenzlöschung mit Hilfe von Quenchern wie Carotinoiden (Carotin in Karotten, Lycopin in Tomaten), die in Pflanzen als Antioxidantien vorkommen und die Bildung des toxischen Singulettsauerstoffs verhindern. Durchführung photochemischer Experimente Die Durchführung photochemischer Experimente erfordert eine Reihe von Voraussetzungen, die sich aus der Startbedingung – Absorption von Licht durch die Reaktanden – ergeben. Es muss bekannt sein, bei welcher Wellenlänge die photochemische Anregung erfolgen soll. Entsprechende Informationen zu den Reaktanden lassen sich Tabellenwerken entnehmen oder können durch Messung der UV-VIS-Spektren erhalten werden. Im nächsten Schritt ist sicherzustellen, dass eine geeignete Lichtquelle zur Verfügung steht. Hierbei muss gewährleistet sein, dass die Lichtquelle ausreichende Leistung im relevanten Wellenlängenbereich liefert, unter Umständen muss ferner ausgeschlossen werden, dass Wellenlängen, die zu photochemischen Nebenreaktionen führen, ausgeschlossen werden. Die verwendeten Lösungsmittel müssen im relevanten Wellenlängenbereich transparent sein (außer sie fungieren als Sensibilisatoren für die Photoreaktion). Ferner dürfen die Lösungsmittel nicht als „Quencher“ wirken (Singulett- oder Triplett-Anregungsenergie der Reaktanden übernehmen und somit die reaktiven Species deaktivieren) und müssen gegenüber den auftretenden Species inert sein. Sauerstoff führt in der Regel zu Nebenreaktionen, weshalb die Reaktionen meist unter Schutzgas (Stickstoff, Argon) durchgeführt werden (Ausnahme: Reaktionen von Singulett-Sauerstoff, bei denen gezielt Sauerstoff durch die Reaktionsmischung geleitet wird). Da die Eindringtiefe des Lichts in der Regel nur wenige Millimeter beträgt (vgl. Lambert-Beer’sches Gesetz), ist für gute Durchmischung zu sorgen. Dies kann in Laborversuchen oftmals durch das sowieso notwendige Durchleiten von Inertgas erreicht werden. Sicherheitstechnisch relevant ist der Schutz vor UV-Strahlung (Augenschäden, „Sonnenbrand“) oder auch das Ableiten der z. B. durch Hochdrucklampen erzeugten hohen Wärmemengen. Apparaturen für photochemische Experimente Präparative photochemische Experimente werden im Labor bevorzugt in Tauchapparaturen durchgeführt. Hierzu wird ein unten abgeschlossenes Glasrohr in die zu belichtende Lösung getaucht. In das Glasrohr kann dann z. B. eine Quecksilber-Dampflampe eingestellt werden. Idealerweise wird das Tauchrohr doppelwandig ausgeführt, damit zu Kühlzwecken Wasser durchgeleitet werden kann. In guten Apparaturen ist das Außenrohr aus Quarz gefertigt, das Innenrohr lässt sich über eine Schraubverbindung austauschen. In solchen Aufbauten können dann verschiedene Innenrohre im Sinne eines Filters verwendet werden, um UV-Strahlung unterhalb einer gewissen Wellenlänge abzuschneiden (300 nm bei Pyrex oder Solidex, ca. 350 nm bei Standardgläsern). Als Filter kann in doppelwandigen Einsätzen auch die Kühlflüssigkeit dienen, wenn entsprechende (stabile) Farbstoffe oder Metallsalze zugesetzt werden. Einfachste Versuche mit kleinen Substanzmengen lassen sich ausführen, in dem Substanzen z. B. in NMR-Röhrchen oder Küvetten bestrahlt werden. Die Bestrahlung in Küvetten ist üblich bei photophysikalischen Untersuchungen und kann in geeigneten Aufbauten auch bei sehr tiefen Temperaturen (flüssiger Stickstoff) erfolgen. Lichtquellen Lichtquellen für photochemische Arbeiten lassen sich prinzipiell in kontinuierliche und diskontinuierliche Strahler unterteilen. Bei der Auswahl ist ferner zu überlegen, welche Leistung für die Arbeiten benötigt wird. Kontinuierliche Strahler liefern Licht in einem weiten Wellenlängenbereich. Typische Beispiele sind schwarze Strahler (Sonne, Glühlampen). Ihre Spektren zeichnen sich durch eine sehr weite spektrale Verteilung aus, die vom Infraroten (Wärmestrahlung) über das Sichtbare bis hin in den (nahen) UV-Bereich reichen. Die UV-Anteile dieser Strahler sind jedoch gering, so dass für photochemische Arbeiten andere Lichtquellen benötigt werden. Als kontinuierliche Strahler im UV-Bereich eignen sich Gasentladungslampen auf Basis von Wasserstoff/Deuterium oder von Edelgasen. Diese Lampen finden vornehmlich Anwendung in UV-Spektrometern (Wasserstoff/Deuteriumlampen) oder z. B. in Photoelektronen-Spektrometern. Diskontinuierliche Stahler liefern Licht in Form diskreter Linien. Typische Vertreter sind Laser und Metalldampflampen. Bei den Metalldampflampen sind – mit steigendem Betriebsdruck zunehmend – die einzelnen Linien verbreitert oder sogar von einem Kontinuum überlagert. Für die präparative Photochemie sind die Quecksilberdampflampen von überragenderer Bedeutung, Laser haben einen breiten Einzug bei den mechanistischen Untersuchungen gefundn. Quecksilber-Niederdrucklampen (0,01–1 mbar) zeichnen sich durch ganz überwiegende Strahlung bei 254 nm aus (ca. 95 %). Beschichtung der Lampen mit geeigneten Phosphoren (analog zu Leuchtstoffröhren) erlaubt die Bereitstellung von Lichtquellen mit Emission um 300 nm bzw. 350 nm herum. Dies ist im Rayonet umgesetzt, bei dem sich die Bestrahlungswellenlänge durch Austausch der Lampentypen realisieren lässt. Bei höheren Betriebsdrücken der Quecksilberlampen (0,1–100 bar) überwiegen zunehmend Emissionen bei 297 nm, 334 nm, 365 nm, 404 nm, 436 nm sowie bei 546 nm und 577 nm. Werden Metallsalze zugemischt (Eisen, Cadmium, Thallium, Indium), können weitere Hauptemissionslinien erzeugt werden. Vorteil der Hoch- und Höchstdrucklampen ist ihre hohe Leistungsabgabe. Bei industriellen Anwendungen kommen Lampen mit einer Leistung von mehreren 10 kW zum Einsatz. Lösungsmittel, Sensibilisatoren und Quencher Eine Zusammenfassung von Lösungsmitteln für photochemische Arbeiten zeigt die nachfolgende Tabelle. Bei den angegebenen Wellenlängen wird die Lichtintensität durch die Eigenabsorption des Lösungsmittels über eine Strecke von 1 cm um rund 90 % reduziert. Die Lichtabsorption und -emission finden überwiegend unter Erhaltung der Multiplizität statt, d. h., ein im Singulett-Zustand vorliegendes Molekül wird in einen angeregten Singulett-Zustand überführt bzw. zeigt schnelle Fluoreszenzemission. Die direkte Anregung aus einem Singulett-Grundzustand in einen Triplett-Zustand ist quantenchemisch „verboten“ und wird damit nur untergeordnet beobachtet. (Zum Vergleich: der strahlende Übergang eines Tripletts in den Grundzustand (Phosphoreszenz) ist entsprechend verboten und somit gegenüber der Fluoreszenz langsamer Vorgang.) Sollen daher photochemische Reaktionen über Triplett-Zustände verlaufen, werden Sensibilisatoren eingesetzt. Bei diesen findet im angeregten Zustand ein Singulett-Triplett-Übergang (Intersystem Crossing, ISC) in nennenswertem Ausmaß statt. Anschließend kann der Sensibilisator seine Triplett-Anregung auf einen Reaktanden übertragen, der dann chemische Reaktionen im Triplett-Zustand eingeht. Das Phänomen der Energieübertragung kann auch genutzt werden, um Einblick in den Mechanismus von Photoreaktionen zu erhalten. Hier werden Moleküle mit bekannten Singulett- oder Triplett-Energien eingesetzt, um bei Reaktionen auftretende angeregte Zustände zu „löschen“ („quenchen“). Liegt die Energie des Quenchers unterhalb der Energie des zu löschenden Zustands, so kommt es zur Energieübertragung und damit zur Unterbrechung der ursprünglichen Photoreaktion. Das Prinzip kann auf Reaktionen im Singulett- wie auch im Triplett-Zustand angewandt werden. Nachfolgend sind einige typische Sensibilisatoren und Quencher aufgeführt (Energien der ersten angeregten Singulett- und Triplett-Zustände, Quantenausbeuten für das (ΦISC)): Siehe auch Photochemische Verfahren (nach DIN 8580) Kasha-Regel Quellen Teilgebiet der Chemie
Q188651
127.665001
85848
https://de.wikipedia.org/wiki/Gravitationswelle
Gravitationswelle
Eine Gravitationswelle – übersetzt auch Schwerkraftwelle genannt – ist eine Welle in der Raumzeit, die durch eine beschleunigte Masse ausgelöst wird. Den Begriff selbst prägte erstmals Henri Poincaré bereits 1905. Gemäß der Relativitätstheorie kann sich nichts schneller als mit Lichtgeschwindigkeit bewegen. Lokale Änderungen im Gravitationsfeld können sich daher nur nach endlicher Zeit auf entfernte Orte auswirken. Daraus folgerte Albert Einstein 1916 die Existenz von Gravitationswellen. Beim Durchlaufen eines Raumbereichs stauchen und strecken sie vorübergehend Abstände innerhalb des Raumbereichs. Das kann als Stauchung und Streckung des Raumes selbst betrachtet werden. Da sich in der newtonschen Gravitationstheorie Veränderungen der Quellen des Gravitationsfeldes ohne Verzögerung im gesamten Raum auswirken, kennt sie keine Gravitationswellen. Am 11. Februar 2016 berichteten Forscher der LIGO-Kollaboration über die erste erfolgreiche direkte Messung von Gravitationswellen im September 2015, die bei der Kollision zweier Schwarzer Löcher erzeugt worden waren. Sie wird als Meilenstein in der Geschichte der Astronomie betrachtet. 2017 wurden Rainer Weiss, Barry Barish und Kip Thorne „für entscheidende Beiträge zum LIGO-Detektor und die Beobachtung von Gravitationswellen“ mit dem Nobelpreis für Physik ausgezeichnet. Allgemeine Eigenschaften – Vergleich mit elektromagnetischen Wellen Erzeugung und Ausbreitungsgeschwindigkeit Nach der allgemeinen Relativitätstheorie wirken Änderungen des Gravitationsfeldes nicht instantan im ganzen Raum, wie es in der newtonschen Himmelsmechanik angenommen wird, sondern breiten sich mit Lichtgeschwindigkeit aus (siehe auch Aberration der Gravitation). Demnach werden von jedem System beschleunigter Massen (z. B. einem Doppelsternsystem oder einem um die Sonne kreisenden Planeten) Gravitationswellen erzeugt, ähnlich wie beschleunigte elektrische Ladungen elektromagnetische Wellen abstrahlen. Aufgrund des Birkhoff-Theorems sendet eine sphärisch symmetrisch oszillierende Massenverteilung keine Gravitationswellen aus (ebenfalls analog zur Elektrodynamik). Dipol- und Quadrupolwellen Die Masse ist die Ladung der Gravitation. Anders als bei der elektrischen Ladung ist keine negative Masse bekannt und wird derzeit nur im Rahmen von Hypothesen (insbesondere als exotische Materie) diskutiert. Damit existieren keine Dipole von Massen. Ohne Dipole und ohne durch externe Kräfte hervorgerufene Bewegungen kann es jedoch keine Dipolstrahlung geben. Beschleunigte Massen führen jedoch zur Quadrupolstrahlung, deren Berechnung sich an elektrische Quadrupole anlehnt. Demnach ist das Quadrupolmoment proportional zur Masse und dem Quadrat des Abstandes : . Auch eine Masse, die rotiert, aber nicht rotationssymmetrisch ist, strahlt. Am Beispiel zweier Neutronensterne mit je 1,4-facher Sonnenmasse, die sich im Abstand von 150 Millionen Kilometer (etwa eine Astronomische Einheit, mittlerer Abstand Erde–Sonne) umkreisen, lässt sich die abgestrahlte Leistung der Gravitationswellen zu 1014 W berechnen. Weil in dieser Konstellation als Doppelstern der Abstand mit der 5. Potenz in die abgestrahlte Leistung eingeht, würde bei einem Abstand von nur 500.000 km die Strahlungsleistung der Sonne (4 · 1026 W elektromagnetische Strahlung) in Form von Gravitationswellen erreicht. Bis zur Berührung der Neutronensterne würde in diesem Beispiel die abgestrahlte Leistung in Form von Gravitationswellen auf 1048 W ansteigen. Strahlung und Eichbosonen Gravitationswellen lassen sich mathematisch beschreiben als Fluktuationen des metrischen Tensors, eines Tensors zweiter Stufe. Die Multipolentwicklung des Gravitationsfelds beispielsweise zweier einander umkreisender Sterne enthält als niedrigste Ordnung die Quadrupolstrahlung. In einer quantenfeldtheoretischen Perspektive ergibt sich das der klassischen Gravitationswelle zugeordnete, die Gravitation vermittelnde Eichboson, das (hypothetische) Graviton, als Spin-2-Teilchen analog dem Spin-1-Photon in der Quantenelektrodynamik. Eine widerspruchsfreie quantenfeldtheoretische Formulierung der Gravitation auf allen Skalen ist jedoch noch nicht erreicht. Wellenart Gravitationswellen sind analog zu elektromagnetischen Wellen Transversalwellen. Aus Sicht eines lokalen Beobachters scheinen sie die Raumzeit quer zu ihrer Ausbreitungsrichtung zu stauchen und zu strecken. Sie haben ebenfalls zwei Polarisationszustände. Es gibt auch bei ihnen Dispersion. Mathematische Beschreibung Anders als für elektromagnetische Wellen – die sich aus den linearen Maxwell-Gleichungen ergeben – lässt sich eine Wellengleichung für Gravitationswellen nicht mehr exakt herleiten. Aus diesem Grunde ist auch das Superpositionsprinzip nicht anwendbar. Stattdessen gelten für Gravitationswellen die einsteinschen Feldgleichungen. Für diese können in vielen Fällen nur Näherungslösungen durch lineare Differentialgleichungen ermittelt werden, z. B. die Wellengleichung als Näherung für kleine Amplituden. Da die Annahme kleiner Amplituden am Entstehungsort der Welle in der Regel unzulässig ist, wird es sehr schwierig, die Abstrahlung von Gravitationswellen zu berechnen, was für Vorhersagen über die Messbarkeit der Wellen und die Gestalt der Signale jedoch erforderlich wäre. Aus der Nichtlinearität der Gravitationswellen folgt die Möglichkeit ihrer Darstellung als solitäre Wellenpakete. Spektrum Somit unterscheidet sich das Gravitationswellen-Spektrum vom Spektrum des sichtbaren Lichts. Da einerseits mit Teleskopen nur emittierende Objekte erfasst werden können und andererseits ca. 99 Prozent aller Materie keine Strahlung emittiert, eröffnen Gravitationswellen eine Möglichkeit zur Erfassung dunkler Materie. Quellen von Gravitationswellen Generell erzeugen beschleunigte Massen Gravitationswellen, oder allgemeiner: jede Veränderung in der Verteilung von Masse und/oder Energie im Universum, bei der zumindest das Quadrupolmoment zeitlich variiert. Die Stärke der Gravitationswellen hängt von der bewegten Masse und in noch stärkerem Maße von deren Geschwindigkeitsänderung (des Betrages und der Richtung) ab. Am stärksten und damit noch am ehesten beobachtbar sind sie bei sehr massiven, sehr stark beschleunigten astronomischen Objekten. Dies sind sich schnell umkreisende Objekte schnell rotierende Objekte, die nicht rotationssymmetrisch sind, Objekte, die asymmetrisch (nicht kugelsymmetrisch) schnell kollabieren oder expandieren. Kompakte Objekte, die einander umkreisen und verschmelzen Sich umkreisende Objekte strahlen Gravitationswellen ab. So erzeugt der Umlauf der Erde um die Sonne Gravitationswellen mit einer Leistung von knapp 200 W, weswegen auch die Beeinflussung der Erdbahn durch diesen Effekt nicht messbar ist. Um nur ein Millionstel der kinetischen Energie dieser Bewegung abzustrahlen, wären ungefähr 1018 (eine Trillion) Jahre nötig. Im idealisierten Kreisorbit ergibt sich folgende Rechnung: Planckleistung Lichtgeschwindigkeit Gravitationskonstante Winkelgeschwindigkeit des Umlaufs, hier: 2π/Jahr Quadrupolmoment, hier : (Trägheitsmoment) bewegte Punktmasse, hier: Masse der Erde Radius der Umlaufbahn, hier: 1 AE Schwarzschildradius Die Frequenz f der Gravitationswelle beträgt dabei das Doppelte der Umlauffrequenz ω/(2π) der beiden Objekte. Für einen nennenswerten Effekt müssen die Objekte Massen von Sternen haben, aber viel kompakter als gewöhnliche Sterne sein und sich sehr eng und damit sehr schnell umeinander bewegen. Infrage kommen Neutronensterne oder Schwarze Löcher. Erstmals wurde dieser Effekt indirekt beim Doppelpulsar PSR J1915+1606 nachgewiesen. Die Messungen passen exakt zu den Vorhersagen der Allgemeinen Relativitätstheorie. Durch die abgestrahlten Gravitationswellen nähern sich die beiden Neutronensterne in diesem System jährlich um 3,5 m an und werden in ca. 300 Millionen Jahren verschmelzen. Kurz vor dem Verschmelzen solcher Objekte steigt die Umlaufgeschwindigkeit und damit die Frequenz und Stärke der Gravitationswellen drastisch an, was als Chirp bezeichnet wird. Im nahezu stabilen Orbit steigt die Leistung proportional zu und bei konstantem Drehmoment (Ellipsenbahn) ist die Leistung ungefähr proportional zu . Das erste direkt nachgewiesene Gravitationswellensignal GW150914 stammte von den letzten Hundertstelsekunden vor dem Verschmelzen zweier Schwarzer Löcher. Beim Ereignis GW170817 verschmolzen zwei Neutronensterne. Pulsare Pulsare sind Neutronensterne, die ein starkes Magnetfeld besitzen und sich mit bis zu 500 Umdrehungen pro Sekunde um die eigene Achse drehen. Weisen diese Pulsare Asymmetrien in ihrer Massenverteilung auf (z. B. durch eine kleine Erhebung auf deren Oberfläche), verursachen sie eine in Frequenz und Amplitude konstante Gravitationswelle. Bislang sind noch keine derartigen Quellen entdeckt worden. Supernovae Supernovae sind explodierende Sterne. Sie entstehen bei der thermonuklearen Explosion eines Weißen Zwergs (Supernova Typ Ia) oder beim Gravitationskollaps eines sehr massiven Sterns (Supernova Typ Ib, Ic, II). Bei dieser Explosion kann ein erheblicher Teil der Sternenmasse mit großer Geschwindigkeit (bis 10 % der Lichtgeschwindigkeit) fortgeschleudert werden. Wenn diese Explosion asymmetrisch erfolgt, wird Gravitationsstrahlung erzeugt. Gravitationswellen-Hintergrundstrahlung Viele Modelle zum Universum sagen starke Gravitationswellen voraus, die kurz nach dem Urknall entstanden sind. Aufgrund der kosmischen Expansion wäre deren Frequenz inzwischen sehr klein. Bei Nachweis dieser Gravitationswellen könnte man viel weiter zeitlich in die Vergangenheit des Universums blicken, als es mit der kosmischen Mikrowellen-Hintergrundstrahlung möglich ist. Der ursprünglich für das Jahr 2019 geplante Detektor eLISA wird diese möglicherweise nachweisen können. Nach dem Ausstieg der NASA war die Zukunft des Projektes jedoch ungewiss. Das Folgeprojekt NGO (New Gravitational Wave Observatory) wurde 2012 von der europäischen Weltraumorganisation ESA zugunsten der Mission JUICE, deren Ziel die Erkundung der Jupitermonde ist, zurückgestellt. 2013 wurde das Projekt von der ESA als L3-Mission unter dem Thema „Das gravitative Universum“ in die weiteren Planungen aufgenommen. Der Start ist für 2037 geplant. Experimenteller Nachweis Die Effekte von Gravitationswellen sind derart klein, dass es auf absehbare Zeit nicht möglich sein wird, künstlich erzeugte Gravitationswellen nachzuweisen, sodass sie allenfalls mit astronomischen Ereignissen nachgewiesen werden können. Bei der Suche nach Gravitationswellen unterscheidet man zwischen (quasi-)​kontinuierlichen und kurzzeitigen (transienten) Ereignissen sowie zwischen modellierten (durch theoretische Berechnungen in ihrer Form vorhergesagten) und unmodellierten Ereignissen. Direkter Nachweis Erste Versuche 1958 versuchte Joseph Weber an der Universität Maryland, Gravitationswellen mit Hilfe von Resonanzdetektoren nachzuweisen: Ein massiver Aluminiumzylinder (Länge 1,8 m, Durchmesser 1 m, Masse 3,3 t) wurde erschütterungsfrei an Drähten aufgehängt. Zur Reduktion von Störungen (Luftmoleküle, eigene Wärmeschwingungen) befand sich der Zylinder gekühlt in einem Vakuum. Außen angebrachte Piezokristalle waren imstande, relative Längenänderungen des Zylinders von 1:1016 zu detektieren, d. h. 1/100 eines Atomkerndurchmessers. Um lokale Störungen davon unterscheiden zu können, wurde eine gleichartige Apparatur 1000 km entfernt aufgebaut; gleichzeitige Schwingungserscheinungen an beiden Zylindern würden auf Gravitationswellen hinweisen. Eine Ende der 1960er Jahre beobachtete Schwingung könnte durch Gravitationswellen aus dem Zentrum der Milchstraße ausgelöst worden sein. Weiterentwickelte Detektoren bestanden später aus Niobzylindern, die auf wenige Kelvin heruntergekühlt wurden; die Empfindlichkeit wurde auf 1:1019 gesteigert. Fünf dieser Detektoren in Genf, Louisiana, Westaustralien, Maryland und Stanford wurden zusammengeschaltet. Ein eindeutiger Nachweis gelang mit diesen Methoden nicht. Ein Nachteil dieser Technik ist, dass die Zylinder nur in einem sehr engen Bereich ihrer Resonanzfrequenz und nur für sehr starke Gravitationswellen ausreichend empfindlich sind. Aus diesem Grund wandte man sich anderen Möglichkeiten zum Nachweis dieser Wellen zu. Interferometer Heute werden Michelson-Interferometer verwendet, die hindurchwandernde Wellen in Echtzeit beobachten sollen, indem die lokalen Änderungen der Raumzeit-Eigenschaften die empfindliche Interferenz zweier Laserstrahlen verändern. Aktuelle Experimente dieser Art wie GEO600 (Deutschland/Großbritannien), VIRGO (Italien), TAMA 300 (Japan) und LIGO (USA) benutzen Lichtstrahlen, die in langen Tunneln hin- und herlaufen. Ein Unterschied in der Länge der Laufstrecke, wie er durch eine durchlaufende Gravitationswelle verursacht würde, könnte durch Interferenz mit einem Kontrolllichtstrahl nachgewiesen werden. Um auf diese Art eine Gravitationswelle direkt zu detektieren, müssen minimale Längenänderungen in Bezug auf die Gesamtlänge der Messapparatur – etwa 1/10.000 des Durchmessers eines Protons – festgestellt werden. Genauere Messungen auf größere Distanzen sollten zwischen Satelliten erfolgen. Das hierzu geplante Experiment LISA wurde 2011 von der NASA aus Kostengründen aufgegeben, wird aber vielleicht in kleinerem Maßstab von der ESA umgesetzt. Im Juli 2014 stellte die Universität von Tokio ihr KAGRA (Kamioka Gravitational Wave Detector) genanntes Projekt in Hiba vor, das seit Februar 2020 erste Beobachtungen durchführt. Der Versuchsaufbau ähnelt dabei den in den USA und Europa zuvor verwendeten, ist aber um den Faktor 10 empfindlicher, entsprechend dem 1000-fachen Volumen. Erste Nachweise Am 11. Februar 2016 gaben Wissenschaftler den ersten direkten Nachweis von Gravitationswellen aus dem laufenden LIGO-Experiment bekannt. Das Ereignis wurde am 14. September 2015 nahezu zeitgleich mit 7 ms Differenz in den beiden LIGO-Observatorien in den USA beobachtet. Es wurden umfangreiche statistische Analysen durchgeführt. Zu den Befunden gehört, dass das Ergebnis mit mehr als fünffacher Standardabweichung signifikant und eindeutig ist. Das messbare Ereignis dauerte 0,2 Sekunden. Die Form des Signals war von einer charakteristischen Form in der Art eines Wavelets, die Vorhersagen aus numerischen Simulationen der Kollision zweier Schwarzer Löcher bestätigte. Es war eine Sinuswelle von 10 bis 15 Zyklen, deren Amplitude bis zu einem Maximum zunahm und dann mit konstanter Frequenz abflaute. Die Signalfrequenz vor der Kollision war proportional zur monoton ansteigenden Umlauffrequenz der sich immer mehr annähernden und einander (zuletzt mit annähernd Lichtgeschwindigkeit) umkreisenden beiden Schwarzen Löcher, sodass die Frequenz bis zu einem konstanten Wert anstieg. Die Amplitude war bis zur Kollision proportional zur Umlaufgeschwindigkeit der Schwarzen Löcher. Das Ereignis fand in einem Abstand von 1,3 Milliarden Lichtjahren (410 Megaparsec) statt. Zwei Schwarze Löcher von rund 29 und 36 Sonnenmassen kreisten umeinander und fusionierten zu einem Schwarzen Loch von 62 Sonnenmassen, 3 Sonnenmassen an Energie wurden in Form von Gravitationswellen abgestrahlt. Das Ereignis wurde als GW150914 bezeichnet. Vorher war noch nicht einmal mit Sicherheit bekannt, ob stellare Schwarze Löcher mit 20 und mehr Sonnenmassen existieren. Das Signal war so intensiv (es war wider Erwarten auch „mit bloßem Auge“ in den Daten zu sehen), dass auch getestet werden konnte, ob Abweichungen zur allgemeinen Relativitätstheorie existieren, was nicht der Fall war. Die Erfassung eines weiteren Gravitationswellenereignisses am 26. Dezember 2015, benannt als GW151226, wurde am 15. Juni 2016 bekannt gegeben. Auch hier verschmolzen zwei Schwarze Löcher, eines von 8 und eines von 14 Sonnenmassen, zu einem Schwarzen Loch von 21 Sonnenmassen, wobei 1 Sonnenmasse an Energie abgestrahlt wurde. Das nächste von LIGO nachgewiesene Gravitationswellenereignis war GW170104 am 4. Januar 2017. Die Schwarzen Löcher mit 20 bzw. 30 Sonnenmassen waren etwa 3 Milliarden Lichtjahre entfernt, die freigesetzte Energie entsprach etwa 2 Sonnenmassen. Im August 2017 wurde erstmals eine solche Welle (GW170814) mit drei Detektoren nachgewiesen (außer den beiden LIGO- noch der italienische Virgo-Detektor), sodass mit Methoden entsprechend klassischer Triangulation die Richtung des auslösenden Ereignisses dem Sternbild Eridanus zugeordnet werden konnte. Ein andersartiges Signal, GW170817, wurde am 17. August 2017 von denselben drei Detektoren (zweimal LIGO sowie Virgo) registriert. Es wird als das Verschmelzen zweier Neutronensterne interpretiert, welche sich zuvor auf immer enger werdenden Spiralbahnen umkreist hatten. Mit einer Dauer von rund 100 Sekunden war das Signal viel länger als die zuvor beobachteten Signale vom Verschmelzen Schwarzer Löcher. Die beiden Objekte lagen wahrscheinlich im Massenbereich zwischen 1,1 und 1,6 Sonnenmassen (die Gesamtmasse betrug etwa 2,7 Sonnenmassen). Nahezu zeitgleich registrierte das Fermi Gamma-ray Space Telescope (FGST) einen kurzen Gammablitz (GRB 170817A), der dem gleichen Ereignis zugeordnet wird. Da der Gammablitz nur 1,7 Sekunden nach dem Ende des Gravitationssignals auftrat, ist nachgewiesen, dass die Geschwindigkeit von Gravitationswellen sich höchstens um einen winzigen Betrag von der des Lichts unterscheidet. Das schließt bestimmte zur Allgemeinen Relativitätstheorie alternative Gravitationstheorien aus. Durch die gute Richtungsauflösung des FGST konnte die Quelle, zuerst vom Las Campanas Observatorium in Chile, auch optisch identifiziert und beobachtet werden. Sie liegt in der 130 Millionen Lichtjahre entfernten Galaxie NGC 4993. Beobachtungen im infraroten, ultravioletten und Röntgenbereich folgten (das Nachglühen wird als sog. Kilonova bezeichnet). Im Rückstand der Kollision wurden schwere Elemente wie Gold, Platin und Uran identifiziert, zu deren Entstehung noch immer viele Fragen offen sind. Die Beobachtung liefert auch neue Erkenntnisse über den Aufbau von Neutronensternen. GW170817 war die erste gleichzeitige Beobachtung eines elektromagnetischen und eines Gravitations-Signals aus gleicher Quelle und eröffnete damit ein neues Kapitel der beobachtenden Astronomie. Die Massen der in dem Ereignis verschmolzenen Komponenten und der abgestrahlten Energie werden aus dem Frequenzverlauf des Signals bestimmt. Der Vergleich mit der Stärke des Signals erlaubt eine Bestimmung der Entfernung, die von der optischen Beobachtung unabhängig ist. Sind beide Beobachtungen verfügbar, wie im Falle von GW170817, so ermöglicht dies eine unabhängige Bestimmung der Hubble-Konstante. Der in diesem Fall ermittelte Wert von H = 70,0 stimmt gut mit dem aus Rotverschiebung der Galaxie bestimmten überein. Weiterhin ergaben sich neue Schranken für eine mögliche Verletzung der Lorentzinvarianz. Es war das Gravitationswellensignal mit der bisher am nächsten liegenden Quelle (etwa 70-mal die Entfernung der Andromedagalaxie), und die Beobachtung lieferte auch die erste Verbindung der bisher rätselhaften Gammablitze mit dem Verschmelzen von Neutronensternen. Unter der Bezeichnung GW170608 wurde 2017 zum 5. Mal eine Verschmelzung Schwarzer Löcher nachgewiesen. Insgesamt waren bis 2018 zehn Gravitationswellen aus dem Verschmelzen Schwarzer Löcher nachgewiesen, sowie eine weitere aus dem Verschmelzen von zwei Neutronensternen. Um die Anzahl jährlich nachgewiesener derartiger Ereignisse ab 2019 wesentlich zu erhöhen, wurde die Empfindlichkeit der LIGO- und VIRGO-Detektoren nach dem Vorbild des GEO600-Detektors mittels gequetschtem Licht technisch verbessert. Indirekte Nachweise Ein indirekter Nachweis von Gravitationswellen gelang Russell Hulse und Joseph Taylor von der Princeton University. Die beiden Physiker konnten durch mehrjährige Beobachtung des 1974 entdeckten Doppelpulsars PSR J1915+1606 nachweisen, dass die Umlaufbahnen dieses Systems einander umkreisender Massen im Laufe der Zeit immer enger werden und das System somit Energie verliert. Die beobachteten Energieverluste entsprachen dabei mit einer Genauigkeit von einem Prozent den aus theoretischen Betrachtungen erwarteten Abstrahlungen durch Gravitationswellen. Hulse und Taylor wurden für ihre Entdeckung 1993 mit dem Nobelpreis für Physik ausgezeichnet. Bei dem binären (doppelten) Schwarzen Loch im Quasar OJ 287 ließ sich derselbe Effekt im September 2007 noch um ein Vielfaches stärker beobachten. Die Weißen Zwerge J065133.338 und 284423.37 (mit etwa 0,26 und etwa 0,5 Sonnenmassen) umkreisen einander in etwa 12,75 Minuten auf einer sehr engen Bahn. Das System wird seit April 2011 beobachtet. Pro Jahr nimmt ihre Umlaufzeit um 310 Mikrosekunden ab. Die Abnahme steht in sehr guter Übereinstimmung mit der Vorhersage der Allgemeinen Relativitätstheorie und wird sich immer mehr beschleunigen. Im Doppelsternsystem bestehend aus dem Pulsar PSR J0348+0432 (Neutronenstern mit etwa 2,0 Sonnenmassen und etwa 20 km Durchmesser) und einem Weißen Zwerg (etwa 0,17 Sonnenmassen und etwa R = 0,065 R☉, was einem Durchmesser von 90.000 km entspricht) umkreisen die beiden Sterne einander in etwa 2,46 Stunden auf einer sehr engen Bahn, ihr Abstand beträgt etwa 830.000 km. Die Massen wurden durch Messung der Änderungen in der Lichtkurve des Weißen Zwergs am Very Large Telescope bestimmt, die Umlaufperiode mit Hilfe der Radioteleskope in Effelsberg und Arecibo seit April 2011 vermessen. Pro Jahr nimmt ihre Umlaufzeit um 8,6 Mikrosekunden ab, was in sehr guter Übereinstimmung mit der Vorhersage der Gravitationswellenabstrahlung der allgemeinen Relativitätstheorie steht. Am 17. März 2014 veröffentlichten US-amerikanische Wissenschaftler des Harvard-Smithsonian Center for Astrophysics Ergebnisse, wonach sie auf der Amundsen-Scott-Südpolstation mit dem BICEP2-Teleskop zur Messung der kosmischen Mikrowellenhintergrundstrahlung erstmals ein Signal beobachteten, das auf den Einfluss von Gravitationswellen auf die kosmische Inflation kurz nach dem Urknall vor rund 14 Milliarden Jahren hindeuten würde. Diese Aussage hielt aber einer erweiterten Analyse, die auch die Messergebnisse des Planck-Weltraumteleskops einbezieht, nicht stand. Demnach trägt der galaktische Staub so viel zur beobachteten Polarisation bei, dass mit der damaligen Messanordnung ein Effekt eventueller Gravitationswellen daneben nicht nachgewiesen werden konnte (ausführlicher siehe unter BICEP). Trivia Die Deutsche Post brachte 2017 eine Briefmarke Gravitationswellen zu 0,70 € heraus. Der deutsche Physiker Heinz Billing konstruierte in den 1970ern Laser-Interferometer für die Messung von Gravitationswellen, die wichtige Erkenntnisse für die späteren Detektoren lieferten, aber viel zu klein waren, um erfolgreich zu sein. Nach seiner Emeritierung war er weiter an den Entwicklungen interessiert und sagte einem Kollegen: „Ich bleibe so lange am Leben, bis sie diese Gravitationswellen gefunden haben.“ Am 11. Februar 2016, als die Ergebnisse zur Entdeckung der Gravitationswellen bekannt gegeben wurden, war er 102 Jahre alt und starb wenige Monate darauf. Literatur Bücher Marcia Bartusiak: Einsteins Vermächtnis. Der Wettlauf um das letzte Rätsel der Relativitätstheorie. Europäische Verlagsanstalt, Hamburg 2005 (Originaltitel: Einstein’s Unfinished Symphony. Übersetzt von Sebastian Wohlfeil). ISBN 978-3-434-50529-7. Jolien D. E. Creighton, Warren G. Anderson: Gravitational-Wave Physics and Astronomy. An Introduction to Theory, Experiment and Data Analysis. Wiley-VCH, Weinheim 2011, ISBN 978-3-527-40886-3. Lew Dawidowitsch Landau, Jewgeni Michailowitsch Lifschitz: Lehrbuch der theoretischen Physik. Band 2: Klassische Feldtheorie. Harri Deutsch Verlag, Thun / Frankfurt am Main 1997, ISBN 978-3-8171-1327-9. Hartmut Grote: Gravitationswellen. Geschichte einer Jahrhundertentdeckung. C.H.Beck, München 2018. ISBN 3-406-71941-4. Michele Maggiore: Gravitational Waves, 2 Bände, Oxford UP, 2008, 2018 (Band 1 Theory and Experiments, Band 2 Astrophysics and Cosmology) Jonas Pohl: Allgemeine Relativitätstheorie und Gravitationswellen. Eine Einführung für Lehramtsstudierende. Springer Spektrum, Wiesbaden 2017. ISBN 3-658-17124-3. Markus Pössel: Das Einstein-Fenster. Hoffmann & Campe, Hamburg 2005, ISBN 978-3-455-09494-7. Bernard F. Schutz: Gravity from the ground up. An introductory guide to gravity and general relativity. Cambridge University Press, Cambridge 2003, ISBN 978-0-521-45506-0. Roman U. Sexl, Helmuth K. Urbantke: Gravitation und Kosmologie. Eine Einführung in die allgemeine Relativitätstheorie. Spektrum Akademischer Verlag, Heidelberg 1995, ISBN 978-3-86025-719-7. Günter Spanner: Das Geheimnis der Gravitationswellen. Einsteins Vision wird Wirklichkeit. Franckh-Kosmos-Verlag, Stuttgart 2016. ISBN 978-3-440-15413-7. Kip Thorne: Gekrümmter Raum und verbogene Zeit. Einsteins Vermächtnis. Droemer Knaur, München 1996 (Originaltitel: Black Holes & Time Warps. Übersetzt von Doris Gerstner und Shaukat Khan), ISBN 978-3-426-77240-9. Rüdiger Vaas: Jenseits von Einsteins Universum. Franckh-Kosmos-Verlag, Stuttgart 2017, 4. Aufl. ISBN 978-3-440-15410-6. Dort finden sich über 100 Seiten zur Geschichte und Entdeckung der Gravitationswellen, incl. LIGO. Rüdiger Vaas: Signale der Schwerkraft. Gravitationswellen: Von Einsteins Erkenntnis zur neuen Ära der Astrophysik. Franckh-Kosmos-Verlag, Stuttgart 2017. ISBN 978-3-440-15957-6, incl. 4. Signal und Physik-Nobelpreis 2017. Steven Weinberg: Gravitation and Cosmology. Principles and Applications of the General Theory of Relativity. Wiley & Sons, New York u. a. 1972, ISBN 978-0-471-92567-5. Aufsätze Lucien F. Trueb: Die schwierige Suche nach Gravitationswellen. Naturwissenschaftliche Rundschau 58(11), S. 573–580 (2005), . Peter Aufmuth: An der Schwelle zur Gravitationswellenastronomie. Sterne und Weltraum 46(1), S. 26–32 (2007), . Stanislav Babak, Michael Jasiulek, Bernard F. Schutz: Angeln nach Gravitationswellen. Forschungsbericht am Max-Planck-Institut für Gravitationsphysik, 2013. Uwe Reichert: Eine neue Ära der Astrophysik. Das Zeitalter der Gravitationswellen-Astronomie hat begonnen. Sterne und Weltraum 55(4), S. 24–35 (2016), . Weblinks Gravitationswellen bei Einstein Online, einer an das allgemeine Publikum gerichtete Webseite des Albert-Einstein-Instituts. Gravitationswellen. - Vortrag von Hanns Ruder aus der Reihe Urknall, Weltall und das Leben. 55 Minuten, 2014. Florian Freistetter: Der direkte Nachweis von Gravitationswellen. (Astrodicticum Simplex. 8. Februar 2016). Populärwissenschaftlicher Beitrag zu LIGO und dem experimentellen Nachweis von Gravitationswellen. Martin Hendry: An Introduction to General Relativity, Gravitational Waves and Detection Principles. (PDF). University of Glasgow (Second VESF School on Gravitational Waves), 28. Mai 2007. Gravitational Waves. In: Notices AMS. August 2017. Einzelnachweise Astrophysikalischer Prozess Allgemeine Relativitätstheorie Welle Wikipedia:Artikel mit Video
Q190035
109.707808
63732
https://de.wikipedia.org/wiki/Geldbu%C3%9Fe
Geldbuße
Unter Geldbuße, kurz Buße, auch Bußgeld o. ä., versteht man im Verwaltungsrecht eine Geldzahlung, die bei geringfügiger Verletzung der Rechtsnormen wegen Ordnungswidrigkeit durch Behörden oder Gerichte verhängt wird. Davon abzugrenzen ist die im Strafrecht deutschsprachiger Länder die vom urteilenden Gericht verhängte Geldstrafe. In den meisten Rechtsordnungen spielen Geldbußen besonders im Straßenverkehr eine Rolle. Der Allgemeinbegriff Buße betrifft jede Art von Ausgleich des Täters für von ihm verursachtes Unrecht oder Leid. Hierunter fällt auch die religiöse Buße und die Kirchenbuße als Abkehr vom falschen Lebensweg und Hinwendung zu Gott. Für den Sünder galt die Buße als einziger Weg zum Seelenheil. Im Christentum stellt die Buße das Bemühen um die Wiederherstellung eines durch menschliches Vergehen gestörten Verhältnisses zwischen Gott und dem Menschen dar. Die Buße führt über die Erkenntnis der eigenen Schuld zu den rechtschaffenen Werken des neuen Lebens , die die Abkehr von der bisherigen Lebensführung einschließen . Das Kompositum Geldbuße soll darauf hinweisen, in welcher Form der Täter zu büßen hat, nämlich durch eine Geldzahlung. Durch diese soll er eine Vermögensminderung erleiden anstelle des Freiheitsentzugs bei einer Gefängnisstrafe. Die Geldbuße ist eine Sanktion zur Ahndung von Ordnungswidrigkeiten, die den wirtschaftlichen Vorteil, den der Täter aus der Ordnungswidrigkeit erlangt hat, übersteigen soll. Doch nicht jeder Geldbuße ist auch ein wirtschaftlicher Vorteil des Täters vorausgegangen (etwa beim Fütterungsverbot für Stadttauben). In einigen Sprachen ist die Bezeichnung für eine Geldbuße aus dem lateinischen Wort finare für „beenden, bezahlen“ abgeleitet. Das gilt neben dem Englischen (fine) auch in den Niederlanden () und Frankreich (). In England werden die Worte für Geldbuße und Geldstrafe () begrifflich nicht genau unterschieden und oft synonym gebraucht. Geschichte Das älteste römische Recht kannte die Geldleistung nur als Privatstrafe (), nicht als öffentliche Strafe; in das Strafensystem des öffentlichen Rechts ist die Geldbuße () erst allmählich aus dem Prozessrecht übernommen worden. Die Geldbuße () wurde später auf jede Strafe ausgedehnt. Das Wort stammte aus dem griechischen „Sühne, Rache“ (, poinḗ), aus dem auch die Pein abgeleitet ist. Im römischen Recht waren alle geringeren und mittleren Vergehen nicht mit öffentlicher Strafe bedroht, sondern lediglich mit Privatstrafe; in klassischer Zeit stets eine Geldbuße, die dem Verletzten zufiel. Das Zwölftafelgesetz kannte für schwere Personalverletzungen die Vergeltung mit dem gleichen Übel (), allerdings durfte an ihre Stelle auch eine frei zu vereinbarende Buße treten. Für die minderen Personalverletzungen schloss das Gesetz die Talion völlig aus und schrieb feste Geldbußen () vor. Das deutsche Wort „Buße“ entwickelte sich aus dem mittelhochdeutschen „buoʒe“. Bei den Germanen und im Frühmittelalter folgte der Verletzung eines anderen eine Buße oder Wergeld als Ausgleich des Täters an das Opfer oder dessen Sippe, einer frühen Form des Täter-Opfer-Ausgleichs. Das Wergeld („Manngeld“) sollte dem Geschädigten sein Recht auf Rache (die Fehde) nehmen. Buße und Wergeld wurden bei den Germanen lange Zeit durch Vieh bezahlt. War die Fehde ausgeschlossen, so dass kein Friedensgeld erhoben werden konnte, gehörte die zu leistende Buße nicht zum Strafrecht. Der Sachsenspiegel aus 1235 unterschied zwischen Wergeld und Buße. Mittelalterliche Gefängnisstrafen durften zuweilen aus Gnade in eine entsprechende Geldbuße umgewandelt werden. So wurde beispielsweise im Mai 1461 der Frankfurter Moritz Berkamer wegen Zollbetruges in Miltenberg neben der Konfiszierung seiner Güter auch mit Haft belegt. Die kursächsischen Konstitutionen aus 1572 führten die vom Richter festzulegende „Geld-Busse“ ein. Ab August 1637 durfte gemäß dem Codex Augusteus ein Beleidigter zwischen der Klage auf Widerruf der Beleidigung und der Klage auf Geldbuße wählen. Gerade Ehrdelikte (Verleumdungen, Beleidigungen, Beschimpfungen o. ä., je nach Rechtskreis) blieben der Rechtsgrund für Geldbußen, so etwa sah es der im Februar 1870 vom norddeutschen Bund beschlossene Strafgesetzentwurf vor. Situation in einzelnen Ländern Deutschland Im heutigen deutschen Recht wird eine rechtswidrige und vorwerfbare Handlung entweder mit Geldbuße (Verwaltungsrecht) oder mit Geldstrafe (Strafrecht) geahndet. Soweit strafrechtliche Vorschriften bestimmten, dass zugunsten des Verletzten einer Straftat auch eine Buße erkannt werden kann, traten sie im Dezember 1974 ersatzlos außer Kraft (Art. 16 EGStGB). Dadurch ist die Geldbuße heute ein rein verwaltungsrechtlicher Begriff. Geschichte Das im Januar 1872 in Kraft getretene Strafgesetzbuch (StGB) sah ausnahmsweise vor, dass neben einer Strafe auch eine Buße verhängt werden konnte. Dies galt lediglich für Verleumdung oder üble Nachrede (§ 188 StGB a. F.) und auch für die Körperverletzung (§ 231 StGB a. F.). Diese Bußen galten nicht als Strafe, sondern bezweckten eine Genugtuung des Opfers. In der Praxis hatten diese Vorschriften keine nennenswerte Bedeutung erlangt. Es erschien dem Gesetzgeber auch nicht angezeigt, das Institut der Buße künftig dadurch zu beleben, dass man zwischen der Buße als Genugtuungsleistung einerseits und dem Schmerzensgeld als dem Ersatz immateriellen Schadens (unter Herauslösung des Genugtuungsgesichtspunkts) andererseits eine klare Trennung trifft und die Festsetzung der Buße als Genugtuungsleistung dem Strafrichter, die Festsetzung des sonstigen immateriellen Schadens aber dem Zivilrichter zuweist. Diese Vorschriften über die Buße zugunsten des Verletzten (§§ 188, 231 StGB a. F.) wurden im Dezember 1974 ersatzlos gestrichen. Das 1949 in Kraft getretene Wirtschaftsstrafgesetz führte die Geldbuße als neue Art der Verwaltungsstrafe ein. Das 1952 in Kraft getretene Gesetz über Ordnungswidrigkeiten (OWiG) übernahm diese Verwaltungsstrafe. Ordnungswidrigkeiten sind demnach alle mit Geldbuße bedrohten Handlungen. Mit Geldbuße bedrohte Handlungen sind im OWiG selbst kaum enthalten (ab OWiG), sondern meist in Spezialgesetzen mit eigenständigen Bußgeldvorschriften. So handelt ordnungswidrig, wer gemäß GewO die Vorschriften über erlaubnispflichtige Gewerbe missachtet. In dieser Form enthalten die meisten Rechtsgebiete spezifische Bußgeldvorschriften für begangene Ordnungswidrigkeiten (etwa Ladenschluss gemäß LadSchlG; Tierschutz gemäß TierSchG; Umweltrecht mit BImSchG oder ChemG oder WHG; Verkehrsrecht gemäß StVG). Rechtsfragen Geldbußen werden gemäß Abs. 2 OWiG für fahrlässig oder vorsätzlich begangene rechtswidrige Handlungen verhängt. Dabei gibt diese Vorschrift den Höchstbetrag für Fahrlässigkeit mit der Hälfte des vorgesehenen Höchstbetrages für Vorsatz vor. Ein rechtfertigender Notstand ( OWiG) oder Notwehr ( OWiG) schließt die Erhebung einer Geldbuße aus. Ist eine Handlung gleichzeitig Straftat und Ordnungswidrigkeit, so wird nur das Strafgesetz angewendet ( OWiG). Begehen Stellvertreter oder Organwalter von juristischen Personen oder Personenvereinigungen Ordnungswidrigkeiten, durch die Pflichten, welche die juristische Person oder die Personenvereinigung treffen, verletzt worden sind, so kann gegen diese eine Geldbuße festgesetzt werden ( OWiG). Betroffene erhalten Akteneinsicht ( OWiG). Auch die Polizei darf Ordnungswidrigkeiten gemäß OWiG erforschen. Das Verwarnungsgeld ist gemäß OWiG eine geringfügige Geldbuße zwischen 5 € und 55 €. In diesem Bereich liegen meist auch die Strafzettel („Knöllchen“) des Straßenverkehrs. Erhoben wird das Bußgeld durch die Bußgeldstelle der zuständigen Behörde im Rahmen des Bußgeldverfahrens mittels Bußgeldbescheid ( OWiG), der einen Verwaltungsakt darstellt. Dieser kann gemäß Abs. 6 VwVfG durch den Rechtsbehelf des Einspruchs nach § 67 OWiG angefochten werden. Die Gerichte sind originär gemäß § 45 OWiG und im Verfahren nach Einspruch gegen den Bußgeldbescheid gemäß § 68 OWiG für die Verhängung von Geldbußen zuständig, wobei die Entscheidung durch Beschluss (§ 72 OWiG) oder Urteil (§ 260 StPO i. V. m. § 46 OWiG) ergeht. Nach der Nomenklatur der OWiG wird die zu Grunde liegende Entscheidung als Bußgeldbescheid, die darin verhängte Sanktion indes als Geldbuße bezeichnet. Die möglichen Verkehrsverstöße werden durch Verwarnungsgeld, Geldbußen oder ein Fahrverbot geahndet und sind in einem gemäß StVG erlassenen Bußgeldkatalog abschließend aufgezählt, der für Verwaltungsbehörden und Gerichte verbindlich ist. Höhe der Geldbuße Nach Abs. 1 OWiG beträgt die Geldbuße mindestens 5 € und, „wenn das Gesetz nichts anderes bestimmt“, höchstens 1000 €, das ist der so genannte „Regelrahmen“. Eine höhere Höchstgeldbuße ist häufig: Von höchster Bedeutung sind in der Praxis Straßenverkehrsgesetz (StVG) („0,5‰-Gesetz“) mit 3000 € und StVG („Verkehrsordnungswidrigkeiten“, im Besonderen nach der Straßenverkehrs-Ordnung) mit 2000 €. Abs. 4 OWiG lautet: „Die Geldbuße soll den wirtschaftlichen Vorteil, den der Täter aus der Ordnungswidrigkeit gezogen hat, übersteigen. Reicht das gesetzliche Höchstmaß hierzu nicht aus, so kann es überschritten werden.“ Damit ist die Höhe der Geldbuße in einem solchen Fall nach oben offen. Das OWiG sieht auch sonst höhere Höchstgeldbußen vor, nämlich in OWiG („Geldbuße gegen juristische Personen und Personenvereinigungen“): 10 Millionen € und in OWiG („Verletzung der Aufsichtspflicht in Betrieben und Unternehmen“) 1 Million €. Von sonstigen Gesetzen seien erwähnt: Abs. 4 Satz 1 GWB (Kartellrecht) bis zu 1 Million € und Abs. 6 BNatSchG (Naturschutz) bis zu 50.000 €. Diese genannten Höchstgeldbußen gelten aber nur, wenn die Tat vorsätzlich begangen wurde, bei Fahrlässigkeit beträgt die Obergrenze die Hälfte ( Abs. 2 OWiG). Zur Höhe der Geldbuße im Einzelfall sagt Abs. 3 OWiG: „Grundlage für die Zumessung der Geldbuße sind die Bedeutung der Ordnungswidrigkeit und der Vorwurf, der den Täter trifft. Auch die wirtschaftlichen Verhältnisse des Täters kommen in Betracht; bei geringfügigen Ordnungswidrigkeiten bleiben sie jedoch in der Regel unberücksichtigt.“ Die Geldbuße muss also für jeden Fall und jeden Täter individuell zugemessen werden, es gelten die gleichen Grundsätze wie bei der Strafzumessung. Zur Bemessung der Geldbußen gibt es, vor allem bei Ordnungswidrigkeiten im Straßenverkehr, eine kaum überschaubare Rechtsprechung, vgl. hierzu die beiden unter „Literatur“ aufgeführten Kommentare, jeweils zu OWiG. Bußgeldkataloge Bußgeldkataloge enthalten Bestimmungen zur Bemessung der Höhe der Geldbuße bei häufig vorkommenden Verstößen und dienen dem Ziel einer gleichmäßigen Rechtsanwendung. Für einen abstrakten Regelfall (gewöhnliche Tatumstände, bestimmter Schuldvorwurf – also Vorsatz oder Fahrlässigkeit –, durchschnittliche wirtschaftliche Verhältnisse) wird eine bestimmte Geldbuße bzw. ein bestimmter Bußgeldrahmen festgesetzt (sog. Regelsatz). Bußgeldkataloge können in Form von Rechtsnormen (insbesondere einer Verordnung) ergehen, häufiger aber sind Verwaltungsvorschriften. Beispiele: Bund Verordnung über die Erteilung einer Verwarnung, Regelsätze für Geldbußen und die Anordnung eines Fahrverbotes wegen Ordnungswidrigkeiten im Straßenverkehr (Bußgeldkatalog-Verordnung – BKatV) nach StVG (seit 1990) Buß- und Verwarnungsgeldkatalog für Zuwiderhandlungen gegen das Bundesfernstraßenmautgesetz (BFStrMG) Buß- und Verwarnungsgeldkatalog Binnen- und Seeschifffahrtsstraßen (BVKatBin-See) Buß- und Verwarnungsgeldkatalog zur Gefahrgutverordnung Straße, Eisenbahn und Binnenschifffahrt (GGVSEB): RSEB, Anlage 7 Bußgeldkatalog GGVSee: Richtlinien zur Durchführung der Gefahrgutverordnung See, Anlage 2 Bund und Länder Buß- und Verwarnungsgeldkatalog zum Güterkraftverkehrsgesetz (GüKG) Buß- und Verwarnungsgeldkatalog zum Berufskraftfahrerqualifikationsgesetz Länder Bußgeldkataloge zum Umweltschutz (z. B. Bayern) Bußgeldkataloge zur COVID-19-Pandemie (z. B. Bayern) Bußgeldkatalog zum Hundegesetz (Schleswig-Holstein) Buß- und Verwarnungsgeldkatalog zum Landeswaldgesetz (Baden-Württemberg, Thüringen) Länderausschuss für Arbeitsschutz und Sicherheitstechnik (LASI) Buß- und Verwarnungsgeldkataloge zum Fahrpersonalrecht (LV 48 1996/2008) Bußgeldkatalog zur Arbeitsstättenverordnung (LV 56 2012) Bußgeldkataloge zum Arbeitszeit-, zum Jugendarbeitsschutz- und zum Mutterschutzrecht (LV 60 1996/2013) Bußgeldkatalog zur Biostoffverordnung (LV 61 2016) Bußgeldkataloge zur Betriebssicherheitsverordnung (LV 62 2018) Bußgeldempfänger Zahlungsempfänger der Geldbußen ist die öffentliche Hand, und zwar die allgemeine Finanzkasse. Im Regelfall bekommt das Geld die staatliche Institution, der die Behörde angehört, die den Bußgeldbescheid erlassen hat. Hat mithin eine Bundesbehörde den Bescheid erlassen, geht das Bußgeld an den Bund, bei einer Landesbehörde an die Landeskasse usw. Besonders zu erwähnen sind die sonstigen Gebietskörperschaften, z. B. Gemeinden, Landkreise, Kommunalverbände usw. Im Einzelnen sind die Regelungen für jedes Bundesland verschieden. Nichtzahlung einer Buße Wird eine Geldbuße nach dem OWiG nicht bezahlt, kann die Verwaltungsbehörde beim zuständigen Gericht Erzwingungshaft nach den §, OWiG beantragen. Die Erzwingungshaft kann nur einmal für jede verwirkte Buße angeordnet werden und darf maximal sechs Wochen dauern. Sie darf nicht angeordnet werden, wenn der Schuldner zahlungsunfähig ist. Bei Zahlungsunfähigkeit ruht die Vollstreckung. Bei Jugendlichen und Heranwachsenden können bei Nichtzahlung einer Buße Maßnahmen durch den zuständigen Jugendrichter verhängt werden ( OWiG). Als Ersatzmaßnahme kann eine Arbeitsleistung, die Wiedergutmachung des Schadens nach besten Kräften, die Teilnahme am Verkehrsunterricht bei Verkehrsdelikten oder die Leistungserbringung in anderer Art und Weise angeordnet werden. Kommt der Jugendliche oder Heranwachsende dieser Anordnung nicht nach und zahlt auch die Geldbuße nicht, kann der Jugendrichter Jugendarrest bis zu einer Woche verhängen. Eine Geldbuße ist nicht vererblich. Stirbt ihr Schuldner, darf nicht in den Nachlass vollstreckt werden ( OWiG). Geldbuße als Disziplinarmaßnahme Rechtsgrundlage für eine Bußordnung durch Betriebsvereinbarung, Betriebsordnung oder Tarifvertrag ist Abs. 1 Nr. 1 BetrVG, wonach der Betriebsrat bei Fragen der Ordnung des Betriebs und des Verhaltens der Arbeitnehmer im Betrieb ein Mitbestimmungsrecht besitzt. Diese können in der Privatwirtschaft vorsehen, dass bei Verstößen der Arbeitnehmer gegen Arbeitsvertrag, Betriebsordnung oder Arbeitsanweisungen ein Katalog von aufsteigend schwerwiegenden Disziplinarmaßnahmen angewandt wird. Als betriebliche Strafmaßnahmen (Betriebsbuße) sind folgende Ahndungsarten üblich: Ermahnung, Verwarnung, dienstlicher Verweis, Geldbuße oder Entzug freiwilliger sozialer Leistungen. Außerdem gibt es noch die Anhörung, Belehrung, Rüge, der zeitweilige Ausschluss von freiwilligen Vergünstigungen (Gratifikation), Degradierung und als schwerste Form der Disziplinarmaßnahme die Abmahnung. Die Geldbußen sind betraglich nicht begrenzt, übersteigen jedoch im Regelfall nicht das Monatsgehalt/den Monatslohn des Arbeitnehmers. Im Disziplinarrecht der Beamten kann die Geldbuße gemäß BDG bis zur Höhe der monatlichen Dienstbezüge auferlegt werden. Dies gilt für Bundesrichter gemäß Deutsches Richtergesetz entsprechend. Hinsichtlich der Beamten und Richter im Dienst der Bundesländer und sonstiger Körperschaften gelten weitestgehend inhaltsgleiche Landesgesetze. Bei Soldaten wird die vergleichbare Maßnahme nach Wehrdisziplinarordnung als „Disziplinarbuße“ bezeichnet. Schweiz In der Schweiz können Bussen (, , ) von Straf- oder Verwaltungsbehörden als Sanktion für Übertretungen (der geringfügigsten Art von Delikten) oder gestützt auf eine gesetzliche Grundlage als Sanktion für die Übertretung von Vorschriften des öffentlichen Rechts ausgesprochen werden. Im Unterschied zur Geldstrafe werden Bussen in der Regel ohne Rücksicht auf die persönlichen Verhältnisse des Täters bemessen. Die Ordnungsbusse (, , ) ist eine im Schweizer Verkehrsrecht für verschiedene leichtere Fälle von Verkehrsregelverletzungen vorgesehene Sanktion. Ordnungsbussen unterscheiden sich von der normalen strafrechtlichen Busse dadurch, dass sie von der Polizei ausgesprochen werden. Werden sie widerspruchslos bezahlt, erfolgt kein ordentliches Strafverfahren und erhält der Täter keinen Eintrag im Strafregister. EU Innerhalb der EU-Mitgliedstaaten gilt der EU-Rahmenbeschluss zur gegenseitigen Anerkennung und Vollstreckung von Geldsanktionen. Das bisher höchste Bußgeld verhängte die Europäische Kommission gegen das US-amerikanische Unternehmen Google mit rund 4,3 Mrd. Euro im Juli 2018. Gegen den weltgrößten Chiphersteller Intel wurde im Mai 2009 ein Bußgeld in Höhe von 1,06 Mrd. Euro verhängt. Intel musste sich wegen Missbrauchs einer marktbeherrschenden Position im Sinne des AEUV verantworten, weil es illegale Zahlungen und Rabatte in der Computerbranche veranlasst hatte. Siehe auch Bußgeldbescheid (Deutschland) Bußgeldkatalog-Verordnung (Deutschland) Sühne Weblinks Systematische Rechtssammlung der Schweizer Eidgenossenschaft: SR 314.11 Ordnungsbussenverordnung (OBV) Literatur Erich Göhler, Gesetz über Ordnungswidrigkeiten, 16. Auflage, München 2012 Karlsruher Kommentar, Ordnungswidrigkeitengesetz, 4. Auflage, München 2014 Christian Caracas, Verantwortlichkeit in internationalen Konzernstrukturen nach § 130 OWiG – Am Beispiel der im Ausland straflosen Bestechung im geschäftlichen Verkehr, Nomos Verlag, Baden-Baden 2014, ISBN 978-3-8487-0992-2 Einzelnachweise Ordnungswidrigkeitenrecht (Deutschland) Geldstrafe
Q1243001
106.937284
48263
https://de.wikipedia.org/wiki/Baltimore
Baltimore
Baltimore [] (USA) ist die größte Stadt im US-Bundesstaat Maryland und als independent city (kreisfreie Stadt) seit 1851 nicht mehr Teil des benachbarten Baltimore County. Baltimore hat 585.708 Einwohner (Stand: Volkszählung 2020 des U.S. Census Bureau) und ist einer der bedeutendsten Seehäfen in den Vereinigten Staaten. Sie ist das Zentrum der Metropolregion Baltimore. In Baltimore befinden sich das Wohnhaus und Grab des Schriftstellers Edgar Allan Poe und das des Schriftstellers und Satirikers Henry L. Mencken, der dort auch geboren ist. Baltimore ist weiterhin auch der Geburtsort des Baseballspielers Babe Ruth, des Schriftstellers Tom Clancy sowie des Musikers Frank Zappa und des Schwimmers Michael Phelps, der als erfolgreichster Olympionike aller Zeiten gilt. Baltimore war außerdem Inspirationsort für die amerikanische Nationalhymne. In der Stadt gibt es viele historische Gebäude und landesweit bekannte Denkmäler. Baltimore hat neben zwei großen Universitäten zahlreiche weitere Ausbildungseinrichtungen und Museen. Geografie Nachbar-Countys Das Baltimore County umgibt die Stadt fast ganz. Das Anne Arundel County hat im Süden eine nur kurze gemeinsame Grenze mit der Stadt. Klima Geschichte Die Stadt wurde im Jahr 1729 gegründet und nach dem ersten und zweiten Baron Baltimore benannt, den britischen Begründern der Maryland-Kolonie. Der Name Baltimore ist irischen Ursprungs und nach einem anderen Baltimore in der irischen Grafschaft County Longford benannt. Zugrunde liegt das irische „Baile an Tí Mhóir“, was „Ort des großen Hauses“ bedeutet. Anfangs als Hafen für den Tabakhandel angelegt, entwickelte sich die Stadt rasch zum Zentrum des Handels mit Europa und der Karibik. Als Philadelphia 1777 von den Briten besetzt wurde, tagte in Baltimore der Kontinentalkongress. Im Britisch-Amerikanischen Krieg von 1812 unternahmen die Briten den Versuch, die von Baltimore aus agierenden Freibeuter auszuschalten. Die Schlacht am Fort McHenry im Jahre 1814, die daraus entstand, inspirierte Francis Scott Key zu dem Text der späteren amerikanischen Nationalhymne The Star-Spangled Banner. Am 28. Dezember 1827 legte in Baltimore die Baltimore-und-Ohio-Eisenbahngesellschaft den Grundstein für die erste Eisenbahnlinie der USA, die am 24. Mai 1830 feierlich eröffnet wurde. Sie war zunächst als eine Pferdebahn geplant; nach einem Wettrennen zwischen der Lokomotive Tom Thumb und einem Pferd musterte man bereits am 31. Juli 1831 alle Rösser aus und ging zu Dampfbetrieb über, obgleich das Pferd gesiegt hatte. 1835 kam es in Baltimore zu einer der schwersten Unruhen des 19. Jahrhunderts in den USA, nachdem die Bank of Maryland zusammengebrochen war und Anleger ihre Ersparnisse verloren hatten. Beim Eingreifen der Miliz wurden zwanzig Menschen getötet und rund einhundert verletzt. 1831 bis 1835 lebte der junge Edgar Allan Poe in Baltimore bei seiner Tante Maria Clemm. Er begann hier in großer Armut seine Laufbahn als Erfinder und Meister der Kurzgeschichte, lebte dann in Richmond (Virginia), Philadelphia und New York City. 1849 starb er auf bis heute nicht völlig aufgeklärte Art und Weise im Washington College Hospital in Baltimore. Er ist auf dem Friedhof der ehemaligen presbyterianischen Westminster-Kirche (heute: Westminster Hall and Burying Ground) begraben. Durch die gute Eisenbahnverbindung in den Mittleren Westen und durch die Einrichtung einer regelmäßigen Dampfschifffahrtsverbindung des Norddeutschen Lloyds von Bremerhaven nach Baltimore entwickelte sich der Hafen zum zweitgrößten Einwanderungshafen der USA nach New York. Seit der Fertigstellung 1875 ist der Sitz des Bürgermeisters und des Stadtrates die Baltimore City Hall. 1886 entwickelte der deutsche Einwanderer Ottmar Mergenthaler hier die Linotype-Setzmaschine. Am 7. Februar 1904 fielen bei einem Großbrand weite Teile der Stadt den Flammen zum Opfer. Vier Menschen kamen dabei ums Leben. Der geschätzte Sachschaden betrug rund 150 Millionen Dollar (nach heutiger Kaufkraft über 4,5 Milliarden Dollar). Im Anschluss an die Ermordung von Martin Luther King am 6. Mai 1968 kam es in Baltimore wie in über 100 anderen Städten zu gewalttätigen Ausschreitungen. In Baltimore waren diese besonders umfangreich, da in der Stadt der gesellschaftliche Wandel hin zur faktischen Rassentrennung besonders ausgeprägt war. Weiße zogen in die Vorstädte, während die Schwarzen in der alten Stadt zurückblieben. Der Gouverneur von Maryland Spiro Agnew reagierte ab dem 11. April mit besonderer Härte, seine Politik wird als Beginn der militärischen Aufrüstung der Polizei in den Vereinigten Staaten angesehen. Mehr als 10.000 Mann der Nationalgarde und der US-Armee wurden in die Stadt gerufen, über 5000 Festnahmen folgten, die meisten wegen Verstößen gegen die Ausgangssperre. 24 Stätten in der Stadt haben aufgrund ihrer geschichtlichen Bedeutung den Status einer National Historic Landmark. 294 Bauwerke und Stätten Baltimores sind im National Register of Historic Places eingetragen (Stand 11. November 2017). Wirtschaft Die Schwerindustrie hielt 1897 mit dem Sparrows-Point-Stahlwerk Einzug. Zur Blütezeit der Stadt kurz nach dem Zweiten Weltkrieg waren dort ein Stahlwerk der Bethlehem Steel, der Flugzeughersteller Glenn-Martin, die Werft Bethlehem Sparrows Point Shipyard, eine Autofabrik von General Motors und mehrere Nahrungsmittelfabriken angesiedelt. 45.000 Arbeiter waren in den Werften beschäftigt, 50.000 in der Flugzeugindustrie und 30.000 im Stahlwerk. In den folgenden Jahrzehnten kam es zu einer starken Deindustrialisierung. Heute ist das Johns Hopkins Hospital der größte Arbeitgeber. Gelegen an der Mündung des Patapsco River in die Chesapeake Bay, zählt der Hafen von Baltimore zu den größten Seehäfen der USA; er war Ausgangspunkt der Siedlungsgeschichte der Stadt. Die Stadt ist ein Verkehrszentrum zwischen Washington, D.C. und Philadelphia und unterhält den Baltimore-Washington International Airport (BWI). Die Chesapeake Bay gilt auch als Wiege der amerikanischen Dosenindustrie. In den 1860er Jahren entstanden mehrere große Konzerne, die sich auf Dosenkonservierung von Austern spezialisiert hatten. Ende des 18. Jahrhunderts wurde Baltimore weltweit bekannt durch die Baltimoreklipper, meist zweimastige Topsegelschoner, die ganz auf Geschwindigkeit konzipiert waren und ihre große Zeit zwischen etwa 1795 und 1825 hatten. Sie stellten den Beginn der Ära der Schnellsegler dar. Baltimore ist Sitz vieler Firmen aus der Gesundheits- und Schönheitsindustrie sowie der Medizin und Pharmazeutik. Ebenfalls haben viele Forschungseinrichtungen, sowohl aus der Wirtschaft als auch staatliche Labors, ihren Sitz in und um Baltimore. Außer privaten Laboratorien beherbergt die Stadt 61 Forschungslabors auf bundesstaatlicher Ebene. Momentan ist Baltimore die größte amerikanische Stadt ohne den Sitz eines Fortune-500-Unternehmens. Die Metropolregion von Baltimore erbrachte 2016 eine Wirtschaftsleistung von 187,4 Milliarden US-Dollar und belegte damit Platz 19 unter den Großräumen der USA. Die Arbeitslosenrate betrug vier Prozent und lag damit leicht über dem nationalen Durchschnitt von 3,8 Prozent (Stand: Mai 2018). Bevölkerung In Baltimore lebten 2014 etwa 63,3 Prozent Afroamerikaner, 28,3 Prozent Weiße, 2,6 Prozent Asiaten, 0,4 Prozent amerikanische Ureinwohner sowie 0,1 Prozent Hawaiianer. Die restlichen 5,3 Prozent sind hispanischer Herkunft oder sahen sich mehreren Ethnien angehörig. Einwohnerentwicklung Während die Einwohnerzahlen der Stadt Baltimore rückläufig sind, wächst die Bevölkerung der Metropolregion. Bildung Die weltbekannte, besonders in der Medizin herausragende Johns-Hopkins-Universität befindet sich in Baltimore. Im umliegenden Kreis haben die University of Maryland, Baltimore County, die Towson University und die University of Baltimore ihren Sitz. Mit dem 1826 gegründeten Maryland Institute College of Art befindet sich eines der ältesten Kunsthochschulen in Maryland. Politik Flagge Die Flagge Baltimores zeigt das Battle Monument, ein lokales Monument, das zwischen 1815 und 1825 errichtet wurde. Es wurde von Veteranen des Krieges von 1812 errichtet. Der Hintergrund ist den Farben der Familie Calvert (Träger des Adelstitels Baron Baltimore) gehalten – ebenso wie die Flagge Marylands. Die North American Vexillological Association bewertete die Flagge 2004 als positiv (sie belegte den 18. Platz von 150). Partnerstädte Alexandria, Ägypten Ashkelon, Israel Cádiz, Spanien Gbarnga, Liberia Genua, Italien Kawasaki, Japan Luxor, Ägypten Odessa, Ukraine Piräus, Griechenland Rotterdam, Niederlande Xiamen, China Gegenwärtige Probleme Baltimore hat unter den US-amerikanischen Großstädten am stärksten mit Armut, Verwahrlosung, Drogenabhängigkeit und Suburbanisierung zu kämpfen. Die Stadt hat eine hohe Kriminalitätsrate, mit – unter anderem – knapp 300 Tötungsdelikten pro Jahr, wobei sich diese Rate in den letzten Jahren nach einem kurzfristigen Rückgang wieder auf 300 Tötungsdelikte pro Jahr einpendelte. So wurden im Jahr 2008 234 Tötungsdelikte gemeldet, 2018 wurden jedoch wieder 309 Menschen Opfer von Tötungsdelikten. Das Problem der Kriminalität ist vielen amerikanischen Fernsehzuschauern durch die Serien Homicide und The Wire vertraut. In der Serie „The Wire“ lautet ein Spitzname der Stadt daher auch „Body more, Murderland“ (deutsch in etwa: „noch ne Leiche, Mordland“), eine Anspielung auf die volle Nennung des Namens mit Bundesstaat („Baltimore, Maryland“), wie es in den USA üblich ist. Der Bevölkerungsschwund in Baltimore ist so stark ausgeprägt wie in wenigen anderen Großstädten der USA. 1950 lebten noch 949.708 Einwohner in Baltimore. Damit gehörte Baltimore damals zu den größten Städten der USA. Seit 1950 ist die Bevölkerungszahl ununterbrochen gesunken, während sich die Bevölkerungszahl der USA im selben Zeitraum mehr als verdoppelt hat. 2010 lebten noch 620.691 Leute in Baltimore, 4,6 Prozent weniger als im Jahr 2000. Laut der Forbes-Liste aus dem Jahr 2009 ist Baltimore eine der zehn gefährlichsten Städte in den USA. Des Weiteren hat eine FBI-Studie die Kriminalitätsraten in US-Städten im Jahr 2010 untersucht, auch dort war Baltimore mit Rang acht unter den zehn gefährlichsten Städten aufgelistet. Zwar gab es einen allgemeinen Rückgang von Gewaltverbrechen, aber besonders schwere Delikte nahmen zu. Laut der Zeitung The Baltimore Sun wurden zwischen Juni 2012 und April 2015 in fast 2600 Fällen Häftlingen, die in Polizeigewahrsam waren, die Einlieferung in die städtische Haftanstalt verweigert, da sie zu schwer verletzt waren. Den Dokumenten zufolge wiesen 123 Häftlinge sichtbare Kopfverletzungen auf. Andere hatten gebrochene Knochen, Verletzungen im Gesicht und Bluthochdruck. Im Juli 2019 bezeichnete Donald Trump den in der Stadt gelegenen Wahlkreis des Abgeordneten Elijah Cummings in mehreren Kurznachrichten als „ein ekelhaftes, ratten- und nagetierverseuchtes Chaos“. Er lenkte damit aber die Aufmerksamkeit auf die Zustände in den Wohnanlagen seines Schwiegersohnes Jared Kushner, in denen wegen Schimmels, Nagerbefalls und anderer Mängel ab 2017 Bußgelder in der Höhe von 13.200 Dollar verhängt wurden. Von 899 Wohneinheiten, die Kushner gehören oder gehörten, bestanden 200 die jährlichen Inspektionen nicht. Die Tierschutzorganisation PETA reagierte mit einem Billboard, auf dem sie einen auf einem Geldhaufen sitzenden Mann (Kushner) einer Maus mit einem Stück Käse gegenüberstellte. Kultur Das 1916 gegründete Baltimore Symphony Orchestra (BSO) ist eines der großen Symphonieorchester der Vereinigten Staaten von Amerika. Es erwarb sich unter der Leitung von Musikdirektor David Zinman (1985 bis 1998) einen internationalen Ruf. In diese Phase fiel der Gewinn der Grammy Awards 1990 auf eine Aufnahme von Werken für Cello und Orchester von Samuel Barber und Benjamin Britten mit Yo-Yo Ma als „Beste Soloinstrument-Darbietung mit Orchester“. 2007/2008 übernahm Marin Alsop die Leitung des Baltimore Symphony Orchestra als erste Frau in der Geschichte, die einem großen US-amerikanischen Orchester vorsteht. Die Probleme der Stadt inspirierten Randy Newman zu seinem berühmten Lied Baltimore, das auch von Nina Simone, Nils Lofgren sowie von Udo Lindenberg in einer deutschen Version interpretiert wurde. In dem Gedicht Incident von Countee Cullen wird Baltimore als Ort der Erstbegegnung eines kleinen Jungen mit der Diskriminierung von Schwarzen erwähnt. Die Handlung des Musicals Hairspray, von dem es auch zwei Filmversionen gibt (Original von 1988; Remake von 2007), spielt im Baltimore des Jahres 1962. Baltimore war der Sitz des „Baltimore Gun Clubs“, der in Jules Vernes Roman Von der Erde zum Mond die ersten Menschen zum Mond schickte. Die von der Kritik hochgelobte Fernsehserie The Wire (2002–2008) spielt in Baltimore und beschreibt die hohe Kriminalität und die sozialen Probleme Baltimores. Baltimore war Drehort für Filme wie Der Staatsfeind Nr. 1 und Schlaflos in Seattle (der Stadtteil Fell's Point). Im Film Der Anschlag (2002) explodiert hier eine Atombombe, und ein großer Teil der Innenstadt von Baltimore wird vernichtet. Sehenswürdigkeiten Kirchen Nationalheiligtum Basilika Mariä Himmelfahrt, 1806–1821 nach Plänen von Benjamin Latrobe als Kathedrale des römisch-katholischen Erzbistums Baltimore errichtet, heute Konkathedrale Neue katholische Kathedrale Maria Königin, erbaut 1954–1959 Zion Church of the City of Baltimore: 1807 errichtete Kirche; es gab einen Vorgängerbau aus dem Jahr 1762. Die Gemeinde der „Zion Church of the City of Baltimore“ wurde von deutschen Einwanderern gegründet; noch vor der Unabhängigkeitserklärung der USA hielten sie in Baltimore lutherische Gottesdienste in deutscher Sprache ab. Diese Tradition wird ununterbrochen bis in die Gegenwart fortgeführt. Mount Vernon Place United Methodist Church, gelistet im National Register of Historic Places. Museen Edgar Allan Poe House and Museum: Poe lebte von 1831 bis 1835 zusammen mit seiner Tante Maria Clemm und seiner Cousine Virginia Clemm Poe in Baltimore Walters Art Museum Baltimore Museum of Art: mit der Cone-Collection der Schwestern Cone, eine der umfangreichsten Sammlungen an Werken von Henri Matisse Contemporary Museum B&O Railroad Museum National Aquarium: direkt am Hafen Fort McHenry Museumsschiff U.S.C.G.S. Taney, ehemals letztes aktives Kriegsschiff, das den Angriff auf Pearl Harbour überstanden hatte. Zuletzt war es eingesetzt als Schiff der Küstenwache. Museumsschiff USS Constellation. Eines der ältesten noch erhaltenen Segelschiffe der US-Navy. Denkmale Grab von Edgar Allan Poe Washington Monument: ältestes Denkmal zu Ehren von George Washington Historische Objekte Der National Park Service weist für Baltimore 25 National Historic Landmarks (Stand Dezember 2016) aus, darunter befinden sich das B&O Railroad Museum, die USS Constellation, das Nationalheiligtum Basilika Mariä Himmelfahrt und das Edgar Allan Poe House and Museum. 298 Bauwerke und Stätten der Stadt sind im National Register of Historic Places (NRHP) eingetragen (Stand 17. November 2018). Sport Baltimore ist seit 1996 die Heimat des NFL-Teams Baltimore Ravens. Die Ravens konnten bislang zweimal den Super Bowl gewinnen. Zuvor waren die Baltimore Colts ab 1953 das NFL-Team von Baltimore und waren im Super Bowl V siegreich. 1984 zog das Franchise nach Indianapolis, wo es bis heute spielt. Außerdem spielt im Baseball-Stadion Camden Yards das MLB-Team Baltimore Orioles. In der National Basketball Association (NBA) war Baltimore von 1949 bis 1954 durch die Baltimore Bullets vertreten. Im Jahr 1963 zogen die Chicago Zephyrs nach Baltimore und trugen von da an ebenfalls den Namen Baltimore Bullets. 1973 zog das Franchise nach Washington, D.C. weiter, wo es heute unter dem Namen Washington Wizards spielt. siehe auch: Newington Park, ehemalige Sportstätte Persönlichkeiten Weblinks baltimoretourism.com (englisch) The Edgar Allan Poe Society of Baltimore Einzelnachweise Ort mit Seehafen County in Maryland Gemeindegründung 1729 Hochschul- oder Universitätsstadt in den Vereinigten Staaten Stadt als Namensgeber für einen Asteroiden
Q5092
581.390389
15278
https://de.wikipedia.org/wiki/Kleidung
Kleidung
Als Kleidung (auch Bekleidung, in Süddeutschland, Österreich und Südtirol Gewand, umgangssprachlich auch Klamotten) wird in einem umfassenden Sinn die Gesamtheit aller Materialien bezeichnet, die als künstliche Hülle den Körper des Menschen mehr oder weniger eng anliegend umgibt (Gegensatz: Nacktheit). Kleidung als „zweite Haut“ verhüllt, schützt und soll darüber hinaus Ausdruck der eigenen Individualität sein. Kleidung dient zum einen dem Schutz vor belastenden Umwelteinflüssen und/oder Gefahren in der Arbeitsumgebung, zum anderen in ihrer jeweiligen Gestaltung der nonverbalen Kommunikation. Damit hat sie sich entsprechend den klimatischen, individuellen und modischen Bedürfnissen des Menschen kultur- und zeitabhängig sehr unterschiedlich entwickelt. Schuhe und Kopfbedeckungen werden zur Kleidung gezählt, reine Schmuckgegenstände jedoch nicht, im engeren Sinne auch nicht das Accessoire (als „Beiwerk“ zur Kleidung). Geschichte Neolithikum und Antike Nach Auffassung des Anthropologen Alexander Pashos lässt sich der geschichtliche Zeitpunkt, seit dem Menschen regelmäßig Kleidung trugen, aus dem Auftreten der Kleiderlaus schätzen. Daraus gefolgert deuten aktuelle Genanalysen auf einen Entstehungszeitraum vor etwa 75.000 Jahren hin. Darüber hinaus existieren jedoch auch andere Auffassungen, nach denen bereits bis vor ca. 650.000 Jahren die Vorfahren des heutigen Menschen Kleidung trugen. Aus dem Mittelpaläolithikum von Neumark-Nord, einer ca. 200.000 Jahre alten Fundstelle aus der Zeit des Neandertalers an einem ehemaligen Seeufer bei Frankleben in Sachsen-Anhalt, stammt ein Steingerät mit anhaftenden Resten von Eichensäure in einer Konzentration, die nicht natürlich auftreten kann und deshalb als ein Hinweis auf das Gerben von Tierhäuten gedeutet wird. Antike Belege für hosentragende Frauen finden sich in römischen Berichten (Tacitus 17) und auf Darstellungen von Kelten und Germanen. Eine Darstellung einer mitteleuropäischen Frau mit Hose findet man, neben Darstellungen von Frauen in Kleidern und Röcken, auf der Trajanssäule (113 n. Chr.) in Rom. Später war das Tragen von Hosen für europäische und amerikanische Frauen jahrhundertelang tabu. Mit Hilfe von Steinwerkzeugen zugeschnittene, an den Enden abgerundete Rippen mit geglätteten Flächen, die in der Contrebandiers-Höhle, unweit der Stadt Témara an der Atlantikküste von Marokko entdeckt wurden, sind rund 120.000 bis 90.000 Jahre alt und gelten als die frühsten gegenständlichen Belege für die Bearbeitung von Tierhäuten. Einer der ältesten Umhänge fand sich in der italienischen Höhle von Arene Candide. Er bestand aus etwa 400 Feh und wird auf ein Alter von ca. 23.000 Jahren datiert. Der Verlust von Fell in der menschlichen Evolution ermöglichte dem Menschen in seinen damaligen warmen Lebensräumen die Körpertemperatur besser zu regulieren (Schwitzen). Dies erhöhte seine Ausdauer zur Nahrungsbeschaffung bei der Hetzjagd. Mit der Erfindung der Kleidung wurde der damit auch verbundene Nachteil wieder kompensiert. Die Möglichkeit, unterschiedlich stark wärmedämmende Kleidung verwenden zu können, erhöht die menschliche Flexibilität, sich in sehr unterschiedlichen Klimazonen aufhalten zu können. Die Entwicklung von spezialisierterem Steinwerkzeug war Voraussetzung, um die Oberfläche der Felle so zu bearbeiten, dass sie als Kleidung (ggf. auch enthaart als Leder) genutzt werden konnten. Möglicherweise wurden Felle zunächst als erster primitiver Sonnenschutz verwendet und später zu Zelten weiterentwickelt, bevor sie als Kleidung verwendet wurden. Die Nutzung von Pelz-Kleidungsbestandteilen als Statussymbol des erfolgreichen Jägers, und damit häufig auch des Gruppenanführers, dürfte ebenfalls sehr früh eine Rolle gespielt haben; die bis in die Neuzeit noch übliche derartige Verwendung in heißen Gegenden lässt darauf schließen. Die Effektivität als Kleidung wurde durch die Erfindung des Nähens erheblich gesteigert, da Kleidung nun geschlossen und dem menschlichen Körperbau angepasst werden konnte. Mit genähter Kleidung war es dem Menschen möglich, auch sehr kalte Regionen wie Nordkanada, Grönland und Nordsibirien ständig zu besiedeln (z. B. Eskimos). Mit der Domestizierung des Schafs im frühen Neolithikum und der Erfindung des Webens konnte nun auch Wolle als Rohstoff für Textilien genutzt werden. Das Schließen von Überwurfkleidung konnte neben dem Vernähen als ständigem Verschluss nun auch bei Gebrauch durch Gewand-Nadeln, später Fibeln und Schnallen, noch später durch Knöpfe erfolgen. Der älteste Nachweis pflanzlicher Rohstoffe als Materialien für die Textilherstellung (z. B. Leinen und Hanf) ist z. B. bei Leinen auf einen Zeitraum von 36.000 bis 31.000 Jahre datiert. Archäologische Funde von chemischen Relikten des Seidenproteins Fibroin in zwei 8500 Jahre alten Gräbern lassen vermuten, dass jungsteinzeitliche Bewohner von Jianhu die Seidenfasern bereits zu Stoffen gewebt haben. Bereits in den frühen Hochkulturen und der Antike unterlag der Kleidungsstil der Mode. Mesopotamische Terrakotten, insbesondere die mit bekleideten Frauen, sind als in Massenproduktion gefertigte Produkte in großer Zahl erhalten geblieben und zeigen die aktuelle Mode. Sie werden deshalb auch als eine Art „Modelexikon der Zeit“ angesehen. Mittelalter Die Kleidung im Mittelalter spiegelte den Platz innerhalb der mittelalterlichen Ständeordnung wider. Unterschiede zwischen den Ständen bestanden meist nur im verwendeten Material und dem dazugehörigen Zierrat. Verfügbare Materialien zur Textilherstellung für die niederen Stände waren Leinen, Hanf, Nessel (diese drei insbesondere zur Verwendung für die Unterkleidung) und Schafwolle (diese insbesondere für Oberbekleidung). Der höhere Stand konnte auch teure Importstoffe (zum Beispiel aus Seide, besonders wertvoll mit Purpur gefärbt), bessere Textilqualitäten und veredelte Tuche kaufen. Industrielle Revolution, 19. Jahrhundert Baumwolle und neue Maschinen für seine Aufbereitung und Verarbeitung (Spinnen, Weben) waren die wichtigsten Impulse für den Beginn der Industriellen Revolution. Baumwollverarbeitung machte im Jahr 1830 etwa 8 Prozent des Bruttoinlandprodukts in Großbritannien aus und führte zu explosivem Wachstum von Städten, in denen sich die Baumwollindustrie entwickelte (z. B. Manchester). Kleidungsreform, 2. Hälfte des 19. Jahrhunderts Im Umfeld der Lebensreform-Bewegungen gab es in der zweiten Hälfte des 19. Jahrhunderts in Deutschland mehrere Ansätze zu einer Reform der Kleidung, wobei sich die ersten Überlegungen auf die Männerkleidung bezogen (Reformkleidung Bauhaus). Seit dem Ersten Weltkrieg, als viele Frauen zur Erwerbsarbeit gezwungen waren, trugen sie Hosen. Fabrikarbeiterinnen trugen Overalls, Frauen im öffentlichen Dienst eine Uniform mit langer Hose (im Winter). 1917 stattete man die Frauen, die als „männlicher Ersatz“ im Eisenbahndienst arbeiteten, mit langen Beinkleidern aus. Die „Hilfsbeamtinnen“ erhielten Joppe (Jacke), Hose, Gamaschen und Mütze, die Arbeiterinnen eine blusenartige Jacke und eine Hose. Es war dieselbe Kleidung, die die Männer in diesen Bereichen zuvor getragen hatten, sie wurde also nicht eigens hergestellt. Im Krieg wurde diese Ausstattung ohne weiteres als notwendig akzeptiert, jedoch hielt man die Frauenhosen für eine vorübergehende Erscheinung. Die Damenhose war noch in den 70er Jahren in London unter weiblichen Bankangestellten undenkbar. In internationalen Luxushotels galt das Hosenverbot für Frauen ebenso noch in den 70ern. Auch im Londoner Nobelkaufhaus Harrods waren behoste Kundinnen noch bis 1970 unerwünscht. Der Sängerin Esther Ofarim wurde 1966 der Zutritt im Hosenanzug zur Bar des Hamburger Atlantic-Hotels verwehrt. Auf den Theaterbühnen waren Hosenrollen eine erotische Sensation: Männerrollen, die von Hosen tragenden Darstellerinnen ausgeführt wurden. Bedeutung Physiologische Schutzfunktion und Gefahren Kleidung soll den Menschen vor Unterkühlung und Erfrierung (durch Kälte, Nässe, Wind) und vor einem Hitzeschaden oder Sonnenbrand (durch Wärmestrahlung und UV-Licht) schützen und gleichzeitig die Verdunstung des Schweißes beim Schwitzen nicht behindern. Weitergehenden Schutz vor besonderen Risiken bietet spezielle, heute meist normierte Schutzkleidung wie die „kugelsichere Weste“, die Schnittschutzhose für Arbeiten mit der Motorsäge, die Hitzeschutzkleidung oder der Chemieschutzanzug. Gefahren Unzweckmäßige Kleidung kann gesundheitsgefährdend sein: ungünstiger Schnitt kann zu engen oder zu fest anliegenden Kleidern führen, die auf Blutgefäße, Nerven oder leicht verletzliche Organe drücken und die die erforderliche Ventilation und Wärmeregulierung verhindern (z. B. beim Schnüren); Benutzung giftiger Substanzen zum Färben (Schweinfurter Grün, Chromgelb und bestimmte Anilinfarben), sie sind besonders gefährlich, wenn sie nur lose mit Stärke aufgelegt sind, wie bei Schleiern und Seidenzeug; Aufnahme organischer Krankheitskeime und Übertragung auf Gesunde (Flanell und dünne Wollstoffe aufgrund ihrer rauen Oberfläche). Feuergefährlichkeit: In Kontakt mit Flammen oder Funken können bestimmte Textilien, vor allem leichte flauschige, schnell abbrennen oder schmelzen und somit zu erheblichen Brandverletzungen führen. Krankheiten (z. B. Grippe, Erkältung, Gicht) bei unzureichend wärmender Kleidung Psychologische Funktion Kleidung kann auch eine Anpassung an gesellschaftliche Zwänge, zu nennen ist hier die Notwendigkeit der Krawatte, oder das Gegenteil aufzeigen. Sie kann Aussagen übermitteln, wie das Festhalten an antiquierten Rollenklischees oder das Eintreten für eine heute überkommene Aufgabenverteilung unter den Geschlechtern. Die Hippie-Bewegung war ein Ausdruck der gesellschaftlichen Veränderungen. Noch 1969 wurde der Schauspielerin Senta Berger der Zugang zu einem Dinner in einem Londoner Hotel verwehrt, weil sie einen edlen Designer-Anzug trug. Sie musste sich umziehen. Anfang 1970 drohte der damalige Bundestagsvizepräsident Richard Jaeger (CSU), er werde jede Abgeordnete, die es wagen sollte, in Hosen zur Plenarsitzung zu erscheinen, aus dem Saal weisen. Am 15. April 1970 erschien Lenelotte von Bothmer (SPD) in einem Hosenanzug im Bundestag und am 14. Oktober 1970 hielt sie als erste Frau in Hosen eine Rede im Bundestag. Noch 1970 war Unisex-Mode undenkbar. Kleidung kann je nach Schnittführung und Material, bspw. Samt, Seide, Leder, Latexkleidung, auch spezielle haptische oder sinnliche Erfahrungen bieten. Kleidung kann zum Genussmittel werden. Darunter fällt der sinnliche Genuss einer anmutigen Erscheinung, sowie an bestimmten Materialien, Formen und Farben insbesondere bei sexuellem Fetischismus, einer Abart der Sexualität, bei der der Fetisch, bspw. Reizwäsche, ein Schuh oder getragene Wäsche als Stimulus der sexuellen Erregung und Befriedigung dient, und nicht der Sexualpartner. Die Hintergründe sind in der Kindheit begründet. Wirtschaftliche Bedeutung Die Länder mit der größten Kleidungsproduktion sind China und Bangladesch. Soziale Bedeutung – Kommunikationsmittel Darüber hinaus dient Kleidung als Zeichen und Kommunikationsmittel, das ein breites Spektrum an Aussagen/Signalen zur Verfügung stellt. Eine sehr einfache Form ist die schlichte Markierung oder Kennzeichnung als beachtenswertes Objekt; so sollen neonfarbene Warnwesten von Straßenarbeitern verhindern, dass ein Arbeiter übersehen wird. Die Bedeutung, die Kleidung im Leben eines einzelnen Menschen hat, ist individuell sehr unterschiedlich, auch abhängig vom gesellschaftlichen Umfeld (und dessen Rollenerwartungen an den einzelnen). Für die einen ist sie unwichtige Äußerlichkeit bzw. pragmatischer Gebrauchsgegenstand, für die anderen wesentlicher Bestandteil ihres Lebens. Häufig kennzeichnet Kleidung die Mitglieder einer Gruppe als Angehörige dieser Gruppe. Im Sport markiert das Trikot den Träger als Angehörigen einer Mannschaft, so wie einst die Uniform half, Freund und Feind zu unterscheiden. Im Normalfall dient sie nur der Unterscheidung von anderen Gruppen und sagt wenig über die Eigenschaften der Gruppe aus. Das ist bei anderer gruppenspezifischer Kleidung deutlich anders. Beispiele dafür sind neben Sportkleidung in etablierten Vereinsfarben auch die Präsentation von Berufsrollen, Rang- (etwa Uniform des Militärs) und Standesunterschiede (die Abgrenzung bzw. Zugehörigkeit von anderen gesellschaftlichen Gruppen bzw. Individuen). Auch in der Art der Bedeutung, die der einzelne der Kleidung beimisst, bestehen erhebliche Unterschiede. Sie zeigen sich an den sehr unterschiedlichen Aspekten, auf die der einzelne bei der Wahl seiner Kleidung vorrangig achtet: Mode-, Marken-, Stil-, Schönheitsbewusstsein; Gebrauchsfunktionalität; Wohlfühlkomponenten. Dahinter können ganz unterschiedliche Motive stecken (je und/oder): Pragmatismus, Genussstreben, Wunsch nach Integration durch Assimilation, Ausdruck von Gefühlen und Stimmungen, Wunsch nach Wohlbefinden, Imponierverhalten, Ausdruck des eigenen Lebensstils, sozialer Status, Nonkonformismus, Rebellion uvam. Weitere Markierungsfunktionen der Kleidung sind ästhetischer Art (teils unbewusst): das Sich-Ausdrücken-Wollen oder das Schmücken des Trägers, aber auch das ästhetisch-ironische Spielen und Experimentieren mit etablierten Formen der Kennzeichnung. Darunter fällt die identifikationsstiftende Komponente der Kleidung einer bestimmten Szene, die je nach Standpunkt als Subkultur bzw. Gegenkultur zum herrschenden Mainstream wahrgenommen werden möchte. So kann auch ersichtlich defekte Kleidung, wie z. B. zerrissene Lederjacken innerhalb der Punkszene oder Flickenjeans der Blueserszene für die Träger ästhetisch und erfüllend sein, während die allgemeine Meinung den Kleidungsstil eher als unangemessen und abgerissen bezeichnet. Zeichen der Zugehörigkeit Die Gründe der Abgrenzung durch Bekleidung können gruppenspezifisch sein. So kann man anhand der Kleidung unterscheiden: stammesspezifische Kleidung, Nationaltracht, Burnus, Tunika oder Toga den Beruf (Arbeitskleidung) und darin unterschiedliche Aufgaben oder Ränge (Arztkittel, OP-Kittel, Pflegepersonal-Kasak) – zum Teil mit Schutzkleidungsfunktion Zugehörige eines Unternehmens bzw. einer Organisation (Kluft) die Funktion als Amtsträger (Uniform, Amtstracht) ein Sonderrechtsverhältnis kennzeichnende Kleidung (z. B. Inhaftierte im Strafvollzug) die Religion (religionsspezifische Kleidung), Kopftuch, Burka, Soutane, Talar uvam. als Identifikationsmuster einer bestimmten Szene, die sich ggf. als Sub- oder Gegenkultur versteht und durch „ihre“ spezielle nonkonforme Kleidung ein Wir-Gefühl erzeugt die Vereinszugehörigkeit als Tracht oder Couleur, die jeweils bestimmte Gattungen und Ränge markiert eine Stimmung, insbesondere Trauerkleidung Kleidung kann geschlechtsspezifisch, altersspezifisch und/oder standes-/klassen-/kastenspezifisch sein. In den westlichen Industriestaaten begründen die verschiedenen Lebensstile die unterschiedlichen Ausprägungen von und Abgrenzungen durch Kleidung. Die wissenschaftliche Befassung mit Kleidung erfolgt durch die Volkskundliche Kleidungsforschung. Kleidungsgruppen Kleidung wird nach verschiedenen Kriterien zusammengefasst, neben anderen: Nach Anlass Alltagskleidung Kleidung für die Arbeitswelt: Berufs- und Arbeitskleidung Spezielle Arten von Arbeits- oder Berufskleidung z. B. Rettungsdienstliche Einsatzkleidung, Fluganzug, Amtstracht Mit weniger funktionaler Begründung: Geschäftskleidung, Kluft (Zunftkleidung), Arbeitskleidung, Bürokleidung Mit Symbol-Funktion ihres Trägers und/oder dessen Zugehörigkeit zu einem Verband oder einer Organisation (z. B. Polizei, Militär): Uniform Kleidung für Partys, Feste und andere feierliche Anlässe: Abendgarderobe, Clubwear, Brautkleid etc. Kleidung für weitere besondere (gesellschaftliche) Anlässe: Trauerkleidung, Umstandskleidung Kleidung für Maskenbälle, Karneval (Faschingskostüm), sowie für Rollenspiel / Schauspiel: Kostüm Kleidung für den Sport: Sportbekleidung, z. B. Trainingsanzug, Turnhose Freizeitbekleidung: z. B. Radbekleidung, Outdoor-Bekleidung Badebekleidung Nach gesellschaftlicher Position siehe dazu auch oben unter dem Abschnitt „Bedeutung von Kleidung“, Unterabschnitt „Soziale Bedeutung – Kommunikationsmittel“ Insbesondere in der früheren Standesgesellschaft bestanden Kleiderordnungen, die Menschen unterschiedlichen Standes unterschiedliche Arten sich zu kleiden zuweisen: Höfische Kleidung, bürgerliche Kleidung etc. Heute bestehen solche Kleiderordnungen in der Regel offiziell nicht mehr, es bestehen allerdings in verschiedenen Milieus unterschiedliche Konventionen Bestimmte Gruppen tragen bewusst Kleidung, die sie als angehörige dieser Gruppe auszeichnet, z. B. Ordenskleidung In bestimmte Szenen sind bestimmte Kleidungs-Vorlieben weit verbreitet und etabliert, z. B. Punk Sträflingskleidung, z. B. KZ-Häftlingskleidung Nach Material Heftige Kontroversen gab es zur Frage, welches Material der Gesundheit besonders zuträglich sei. Gustav Jäger hielt ausschließlich Wolle für geeignet, während Heinrich Lahmann Baumwolle befürwortete und Sebastian Kneipp vor allem Leinen. Jäger gründete ein eigenes Bekleidungsunternehmen für die von ihm entworfene sogenannte Normalkleidung für Männer, die einige Jahrzehnte lang recht erfolgreich auf dem Markt war, im deutschen Sprachraum und auch in England. Kleidung aus textilen Materialien, aus unterschiedlichem Grundmaterial z. B. aus Baumwolle, Wolle, Leinen, Seide aus unterschiedlicher Verarbeitung z. B. Samt, Gewirke, Strickware, Gewebe Latexkleidung Leder-Bekleidung Pelz-Bekleidung Metall (z. B. Ritterrüstung) oder Hartkunststoff (z. B. Schutzbekleidung mit Protektoren) Einwegbekleidung aus papierartigem Material oder Folie (Kunststoff, Metall) Nach spezieller Funktion Schutzfunktionen: Schutz vor Niederschlag (Regenbekleidung), Schutz vor Wind, Schutz vor Wind und Niederschlag (z. B. Seglerbekleidung), Schutz vor Kälte (z. B. Winterbekleidung), Schutz vor Hitze (z. B. Kühlbekleidung, Hitzeschutzkleidung), Schutz vor militärischem oder gewalttätigem Angriff (z. B. schuss-sichere Bekleidung, Ritterrüstung, Tarnkleidung), andere Arten von spezieller Schutzkleidung Warnfunktion, z. B. Warnweste Kleidung mit speziellen physiologischen Funktionen: Funktionsbekleidung Kleidung als Hilfsmittel (Bekleidung für Menschen mit Behinderung und Pflegebedürftigkeit, Pflegemode) Nach Position am Körper Kleidung bzgl. der Schichtung um den Körper: Kleidung als nach außen hin sichtbare Hülle: Oberbekleidung (Damen- und Herrenoberbekleidung) Kleidung unter der Oberbekleidung / direkt auf dem Körper: Unterwäsche Kleidung für bestimmte Körperteile: Fußbekleidung, Kopfbedeckungen, Beinkleider, Kleidung für den Oberkörper (T-Shirt, Hemd, Pullover, Jacke etc.), Kleidung für den ganzen Körper (Overall, Catsuit, Zentai, einteilige Kleider) Nach historischem Kontext, nach historisch vorherrschenden Moden und historischen Vorschriften Kleidung der griechischen und in der römischen Antike Kleidermoden im Mittelalter (500–1500) z. B. Burgundische Mode Kleidermode der Renaissance und der Reformation (1500–1550) Spanische Kleidermode (1550–1610) Kleidermode zur Zeit des Dreißigjährigen Krieges (1610–1650) Kleidermode des Barock / Französische Kleidermode Kleidermode zur Zeit Ludwigs XIV. (1650–1715) Kleidermode des Rokoko (1720–1789) Kleidermode der Französischen Revolution und danach: Revolutions- und Empiremode (1789–1815) Kleidermode der Restauration und des Biedermeier (1817–1840) Krinolinenmode (1842–1870) Kleidermode der Gründerzeit (1871–1900) Kleidermode um 1900 Kleidermoden des 20. und 21. Jahrhunderts Tracht Nach Jahreszeiten Winterkleidung, Sommerkleidung, Übergangskleidung (Jahreszeitenwechsel), Faschingskostüm Sonstige Unterscheidungen neue Kleidung, abgeänderte Kleidung, Secondhandkleidung nach dem Genre: Stapelgenre, Mittelgenre, Gehobenes Mittelgenre, Modellgenre nicht für Menschen geschaffene Kleidung: Tierbekleidung Bezeichnungen in der deutschsprachigen Textilbranche DOB – Damenoberbekleidung HAKA – Herren- und Knabenoberbekleidung, ursprünglich eine Abkürzung für Herren-Anzüge/Knaben-Anzüge KOB – Kinderkonfektion BESPO – Berufs- und Sportbekleidung Kennzeichnung von Kleidung Um Auswahl und Pflege der Kleidung zu erleichtern, werden im oder auf dem konfektionsmäßig hergestellten Kleidungsstück meist einige Angaben gemacht: die Marke die Zusammensetzung der Materialien die Größe, in Konfektionsgrößen gegliedert Textilpflegesymbole zur Orientierung, wie Kleidung gereinigt und gepflegt werden soll manchmal die Modellbezeichnung des einzelnen Kleidungsstückes Siehe auch Direktrice Liste von Kleidungsstücken Altkleidersammlung Gewandung Kampagne für Saubere Kleidung Kostüm (Damenkleidung) Lumpenproletariat Literatur Roland Barthes: Die Sprache der Mode. (französischer Originaltitel: Système de la mode, übersetzt von Horst Brühmann), 3. Auflage. Suhrkamp, Frankfurt am Main 1993, ISBN 3-518-11318-6. Emanuel Herrmann: Naturgeschichte der Kleidung. Wien 1878. Hans-Joachim Hoffman: Kleidersprache. Eine Psychologie der Illusion in Kleidung, Mode und Maskerade. Mit Fotos von Anno Willms. Ullstein, Frankfurt am Main 1985, ISBN 3-550-07617-7. Johannes Kleinpaul: Wie wir uns kleiden. Kulturgeschichtliche Bilder aus alter und neuer Zeit. Mönchengladbach 1919. René König: Die zweite Haut. Elefanten Press Verlag, Berlin 1987. Gertrud Lehnert: Mode. Ein Schnellkurs. Aktualisierte Neuauflage DuMont, Köln 2003, ISBN 978-3-8321-9123-8. Ingrid Loschek: Mode – Verführung und Notwendigkeit. Bruckmann, München 1991. Reclams Mode- und Kostümlexikon. 5. Aufl., Reclam, Stuttgart 2005. Barbara Schmelzer-Ziringer: Mode Design Theorie. Böhlau Verlag/Uni-Taschenbücher-Verlag, Köln, Weimar, Wien 2015, ISBN 978-3-8252-4403-3. Moriz Heyne: Körperpflege und Kleidung bei den Deutschen von den ältesten geschichtlichen Zeiten bis zum 16. Jahrhundert. (= Fünf Bücher deutscher Hausaltertümer von den ältesten geschichtlichen Zeiten bis zum 16. Jahrhundert. Ein Lehrbuch. Band 3), Leipzig 1903. Gabriele Raudszus: Die Zeichensprach der Kleidung. Untersuchungen zur Symbolik des Gewandes in der deutschen Epik des Mittelalters. Hildesheim/ Zürich/ New York 1985 (= Ordo. Band 1). Richard Sennett: Der Körper als Kleiderpuppe. In: Verfall und Ende des öffentlichen Lebens. Fischer, Frankfurt am Main 1982. N. J. Stevenson: Die Geschichte der Mode: Stile, Trends und Stars (Originaltitel: The Chronology of Fashion, übersetzt von Waltraud Kuhlmann und Birgit Lamerz-Beckschäfer), Haupt, Bern / Stuttgart / Wien 2011, ISBN 978-3-258-60032-1. Philipp Zitzlsperger: Dürers Pelz und das Recht im Bild – Kleiderkunde als Methode der Kunstgeschichte. Akademie-Verlag, Berlin 2008, ISBN 978-3-05-004522-1. Weblinks fashionrevolution.org Willkommen zum Fashion Revolution Day Germany truecostmovie.com (ci-romero.de: Ein Film über Mode, Marken und Milliarden) Einzelnachweise
Q11460
425.186296
9669
https://de.wikipedia.org/wiki/Graupel
Graupel
Graupel ist eine Form von Niederschlag, bei dem Schneekristalle durch angefrorene Wassertröpfchen zu kleinen, bis zu 5 mm großen Kügelchen verklumpen. Bei Partikelgrößen von unter einem Millimeter Durchmesser spricht man auch von Griesel. Unterschied zu Hagel Graupelkörner sind im Vergleich zu Hagel deutlich kleiner und weisen lediglich einen maximalen Durchmesser von 1 bis 5 Millimeter auf. Ihre Dichte ist geringer als die von Hagelkörnern und sie haben eine rauere Struktur. Dadurch fallen sie langsamer und können kaum Schaden anrichten. Im Gegensatz zum Hagel fällt Graupel hauptsächlich im Winter bei Temperaturen um 0 °C. Entstehung und Arten Graupel entsteht nur, wenn die Wolken nicht zu viel Feuchtigkeit enthalten, was oftmals im Frühjahr der Fall ist. Häufig tritt Graupel bei trockener Polarluft auf. Bei zu feuchten Wolken entsteht eher Hagel. Es gibt verschiedene Arten von Graupel: Frostgraupel haben einen weichen, undurchsichtigen Kern, der von einer durchsichtigen Eisschicht umhüllt ist. Sie springen beim Auftreffen auf hartem Boden hoch. Sie treten meist in Verbindung mit Gewitter und Regen auf. Frostgraupel entstehen, wenn in Schauer- oder Gewitterwolken die Temperatur unter −4 °C fällt und starke Auf- und Abwinde auftreten. Trifft das unterkühlte Wassertröpfchen auf einen Schnee- oder Eiskristall, so verklumpen sie und es entsteht der undurchsichtige Kern. Reifgraupel sind komplett undurchsichtig und weich. Beim Auftreffen auf einen harten Untergrund springen sie hoch und zerbrechen dabei oft. Sie treten meist zusammen mit Schneefall auf. Reifgraupel entsteht, wenn Schnee in hohen Wolken antaut und erneut gefriert. Griesel oder auch Schneegriesel ist eine Form von Graupel mit einem Durchmesser von rund einem Millimeter oder weniger. Die Körnchen sind dabei undurchsichtige Aggregate aus Schneekristallen und bilden sich ausschließlich bei Temperaturen unter 0 °C. Griesel tritt nur bei Schichtwolken wie Stratus auf und ist folglich nie in Zusammenhang mit einem Schauer zu beobachten. Einzelnachweise Eis Schnee Niederschlag Hydrometeor Wikipedia:Artikel mit Video
Q213202
97.881527
1004276
https://de.wikipedia.org/wiki/Papeete
Papeete
Papeete (tahitianisch: Papeʻete) ist die Hauptstadt von Französisch-Polynesien und liegt auf der Insel Tahiti, die zu den Gesellschaftsinseln gehört. Im Jahr 2017 betrug die Einwohnerzahl der Stadt Papeete 26.926 Personen, nach 26.017 im Jahr 2007 und 25.769 im Jahr 2012. Papeete ist Sitz des Erzbistums Papeete. Stadtgliederung Die Stadt Papeete gliedert sich in elf quartiers, von denen sechs Anteil an der Küste haben und zwei weitere küstennah gelegen sind. Die Agglomeration von Papeete umfasst neun Gemeinden, drei im Osten und vier im Südwesten der Stadt sowie die Gemeinde Moorea-Maiao mit den Inseln Moorea (mit fünf communes associées) und Maiao (entspricht einer commune associée). Die neun Gemeinden hatten zum Stichtag des Zensus am 17. August 2017 zusammengenommen eine Bevölkerung von 166.267. Von Nordosten nach Südwesten: Mahina Arue (mit dem Atoll Tetiaroa) Pirae Papeete Faa’a Punaauia Paea Papara Moorea-Maiao Geschichte Der Missionar William Crook war 1818 der erste Europäer, der sich im Gebiet des heutigen Papeete ansiedelte. Die tahitianische Königin Pomaré IV. ließ sich daraufhin ebenfalls dort nieder und erhob Papeete vor 1830 zu ihrer Hauptstadt. Papeete wurde zu einem regionalen Handels- und Transportzentrum. Nach der Kolonisierung durch Frankreich mit Errichtung eines Protektorats 1842 blieb Papeete die Hauptstadt. Ein Feuer zerstörte 1884 große Teile des Ortes, auch ein Zyklon richtete 1906 große Schäden an. Am 22. September 1914 beschossen deutsche Kreuzer des Ostasiengeschwaders den Hafen Papeete. Der internationale Flughafen von Papeete wurde 1961 eröffnet. Im September 1995 kam es wegen der französischen Atomtests auf dem Mururoa-Atoll drei Tage lang zu heftigen Auseinandersetzungen, die fast zur Zerstörung des Flughafens führten. Wirtschaft Die Fluggesellschaft Air Tahiti Nui hat ihren Verwaltungssitz im Bürogebäude Immeuble Dexter in Papeete. Städtepartnerschaft Mit Nizza in Frankreich besteht eine Städtepartnerschaft. Persönlichkeiten Söhne und Töchter der Stadt Conrad L. Hall (1926–2003), US-amerikanischer Kameramann Hubert Coppenrath (1930–2022), römisch-katholischer Erzbischof von Papeete Jean Gabilou (* 1944), Schlagersänger Jean-Marie Le Vert (* 1959), römisch-katholischer Geistlicher, Weihbischof in Bordeaux Pascal Vahirua (* 1966), ehemaliger Fußballspieler Moetai Brotherson (* 1969), Politiker und Schriftsteller Maina Sage (* 1975), Politikerin Marama Vahirua (* 1980), Fußballspieler Mickaël Roche (* 1982), Fußballtorhüter Nicolas Vallar (* 1983), Fußballspieler Taïna Barioz (* 1988), Skirennläuferin Hereiti Bernardino (* 1993), Sprinterin Tematai Le Gayic (* 2000), Politiker Teura’itera’i Tupaia (* 2000), Speerwerfer Mit Bezug zur Stadt Herman Melville war ab 1842 als Sträfling in Papeete. Seine dortigen Erfahrungen bildeten die Grundlage seiner Novelle Omoo. Paul Gauguin reiste 1891 nach Papeete und kehrte, bis auf die Jahre 1893 bis 1895, nie wieder nach Frankreich zurück. Auch Robert Louis Stevenson und Henry Adams verbrachten 1891 einige Zeit in Papeete. Marie-Thérèse Danielsson, die sich einen Namen als Aktivistin gegen die Atomwaffentests in Französisch-Polynesien gemacht hatte, starb 2003 in Papeete. Weblinks Offizielle Website (französisch) Einzelnachweise Gemeinde in Französisch-Polynesien Ort in Französisch-Polynesien Hauptstadt in Australien und Ozeanien Tahiti Ort mit Seehafen
Q130800
106.698967
9837031
https://de.wikipedia.org/wiki/Membracoidea
Membracoidea
Membracoidea ist eine Überfamilie der Rundkopfzikaden (= Cicadomorpha), sie enthält über 28.000 Arten in fünf Familien mit insgesamt 3.500 Gattungen. Diese Zikaden sind weltweit verbreitet, die einzelnen Arten können etwa 2 bis 30 mm lang sein. Hintertibien sind lang und kantig, sie haben meist Längsreihen mit Borsten, Dornen oder Haaren. Viele Arten können gut springen. Innerhalb der Arten gibt es meist Kommunikation mit Hilfe von Substratvibration. Systematik: Cicadellidae (= Jassidae, Zwergzikaden), die artenreichste Familie der Membracoidea, 20–25.000 Arten, weltweit verbreitet, in den Tropen und Subtropen besonders arten- und formenreich; teilweise sehr farbenprächtig. Membracidae (Buckelzikaden, Buckelzirpen), über 3.200 Arten, mit stark entwickeltem Pronotum, meist hochgewölbt, manchmal bizarr geformt; vor allem in tropischen und subtropischen Gebieten der Neotropis verbreitet, aber auch in Asien und Afrika häufig. Aetalionidae (manchmal "Falsche Buckelzikaden" genannt), Pronotum kleiner als bei den Membracidae, Scutellum mit Kiel, nur ca. 40 Arten, sechs Gattungen, sowohl in der Neuen Welt als auch in der Orientalis. Vermutlich die Schwestergruppe der Membracidae. Melizoderidae (= Helmzikaden), Pronotum helmartig nach vorne erweitert, nur 8 Arten in Chile und Argentinien. Vermutlich die Schwestergruppe der Aetalionidae + Membracidae. Myerslopiidae (= Mooszikaden), nur ca. 15 Arten in Neuseeland und Chile, klein, nur 2–4 mm, leben im Moos. Karajassidae, nur fossil bekannt, vermutlich die Schwestergruppe der anderen Membracoidea. Einzelnachweise Rundkopfzikaden Cicadomorpha
Q1934003
219.089808
18172
https://de.wikipedia.org/wiki/Aschkenasim
Aschkenasim
Als Aschkenasim (, Plural von ), oder aschkenasische Juden (, ), bezeichnen sich mittel-, nord- und osteuropäische Juden und ihre Nachfahren. Sie bilden die größte ethno-religiöse Gruppe im heutigen Judentum. 1939 waren 94 % aller Juden aschkenasischer Abstammung, und im 21. Jahrhundert machen sie etwa 70 % aus. Die Bezeichnung stammt vom biblischen Personen- und Gebietsnamen Aschkenas. Eingewanderte Juden übertrugen ihn im 9. Jahrhundert auf das deutschsprachige Gebiet und die dort lebenden Juden. Mit deren zunehmender Verbreitung ging der Name auf alle europäischen Juden über, mit Ausnahme der in Portugal und Spanien ansässigen Sepharden. Die beiden Bezeichnungen stehen denn auch für verschiedene Halacha- und Sittenkreise im Judentum. Die aschkenasische halachisch-juristische Tradition geht bis auf Rabbeinu Gerschom zurück und ist vor allem in den Rema-Glossen epitomisiert. Die einst am weitesten verbreitete Alltagssprache unter den Aschkenasim war Jiddisch; heute wird es fast nur in ultra-orthodoxen Kreisen als Muttersprache gesprochen. Herkunft Seit etwa 200 v. Chr. bestand eine jüdische Gemeinde in Rom. Infolge der Niederlagen im jüdischen Krieg (70 n. Chr.) und im Bar-Kochba-Aufstand (130) gelangten viele weitere Juden als Sklaven nach Italien. Viele ihrer Nachfahren wanderten später in Gebiete nördlich der Alpen aus, andere kehrten nach der islamischen Eroberung Jerusalems im 7. Jahrhundert in ihr ursprüngliches Siedlungsgebiet zurück. Bis etwa 1000 n. Chr. lebten die meisten Juden unter islamischer Herrschaft. Die Gemeinde von Köln ist im Jahre 321 n. Chr. die erste belegte jüdische Gemeinde im deutschsprachigen Raum. In Paris und Orléans sind vor 500 erstmals Synagogen belegt. Ob diese Gemeinden durchgehend bestanden, ist ungewiss. Im Jahre 825 gewährte Ludwig der Fromme gegen kirchlichen Widerstand jüdischen Händlern seines Reichs Lebensschutz, Steuerbefreiung, freie Religionsausübung, rabbinische Gerichte und Schutz ihrer Sklaven vor Zwangstaufen. Nach der Familienchronik (1220) von Rabbi Eleasar ben Juda ben Kalonymos brachte ein „König Karl“ die Kalonymiden von Lucca nach Mainz. Damit könnte entweder Karl der Große oder Karl der Kahle gemeint sein. Eine Quelle des 16. Jahrhunderts nennt als Zeitpunkt der Ansiedlung das Jahr 917, in dem aber weder der eine noch der andere regierte. Die Erzählung gilt daher als legendarisch. Die drei SchUM-Gemeinden Mainz (belegt ab 917), Speyer und Worms (ab 980) gelten als Geburtsorte des aschkenasischen Judentums. Ihre Talmudschulen (Jeschiwot) wurden im 10. Jahrhundert für die jüdische Rechtsprechung im Gebiet Aschkenas zuständig. Eine weitere Hypothese führt die osteuropäischen Aschkenasim überwiegend auf Zuwanderung von Konvertiten oder ihren Nachfahren aus dem ehemaligen Reich der Chasaren in Südosteuropa und der Kaukasusregion zurück. Die Chasarentheorie gilt in der Geschichtswissenschaft als „mehr als fragwürdig“. Heute wird sie vor allem von Antisemiten wie der Christian-Identity-Bewegung oder dem rechtsesoterischen Verschwörungstheoretiker David Icke verbreitet, weil sie erlaubt, zwischen vermeintlich „guten“ und „bösen“ Juden, nämlich den angeblich von den Israeliten abstammenden Sephardim und den chasarischen, also eigentlich kaukasischen Aschkenasim zu unterscheiden. Genetische Studien Mehrere wissenschaftliche Studien über die genetische Abstammung und Entwicklung der heute lebenden Juden kommen indes zu dem Schluss, dass heutige Juden viele Gene von einer ursprünglichen jüdischen Bevölkerungsgruppe geerbt haben, die vor rund 3000 Jahren in dem als Levante bezeichneten östlichen Mittelmeerraum lebte. Eine Arbeitsgruppe um den Genetiker Harry Ostrer untersuchte hierfür die DNA von 237 Menschen, deren Familien seit Generationen jüdisch sind und die die großen Gruppen der Diaspora repräsentieren (die Aschkenasim, die Sephardim und die Mizrachim), und verglich ihre Erbinformation mit der von 2800 Nichtjuden. Laut dieser Studie sind sich die drei Diaspora-Gruppen genetisch näher als Nichtjuden der jeweils gleichen Region. Innerhalb jeder Gruppe seien die Personen so verwandt wie Cousins zweiten bis fünften Grades. Insbesondere die Verwandtschaft zwischen Aschkenasim und Sephardim sei überzeugend nachgewiesen worden. Anhand der Studie sei auch sehr gut die Vermischung mit der europäischen Bevölkerung nachvollziehbar, so Ostrer. Die oben genannte Hypothese, die Aschkenasim stammten hauptsächlich von den Chasaren ab, sei durch die Genetiker auf diese Weise widerlegt worden. Zwar gebe es Hinweise auf eine „genetische Vermischung“ mit den Chasaren, doch sei dieser Einfluss aus wissenschaftlicher Sicht sehr begrenzt. Der Genetiker Eran Elhaik schätzt die Verwandtschaft zwischen Kaukasiern und Aschkenasim hingegen als deutlich enger ein. Das Genom der europäischen Juden sei laut Elhaik allerdings „ein Flickenteppich aus antiken Volksgruppen wie judaisierten Chasaren, griechisch-römischen Juden, mesopotamischen Juden und Bewohnern Judäas“. Die Arbeit Elhaiks wurde teilweise harsch kritisiert. Der Nahostwissenschaftler Seth Frantzman warf dem Genetiker mangelnde Seriosität vor. So hatte Elhaik nachweislich falsche statistische Werte in seiner Studie angegeben. Ein internationales Team von Genetikern studierte Überreste von Juden, die im 14. Jahrhundert in Erfurt starben, und fand heraus, dass sie aus zwei populationsgenetischen Clustern bestanden, deren einer sich stark mit Slawen vermischt hatte, wogegen der andere („Erfurt-ME“) einen sehr hohen Anteil an Vorfahren aus dem Mittelmeerraum und dem Nahen Osten aufwies, aber möglicherweise 3 Prozent ethnisch deutsche Vorfahren hatte. Eine genetische Studie von Kevin Brook ergab, dass Aschkenasim mehrere mitochondriale Haplogruppen mit nichtjüdischen Menschen aus Deutschland teilen, darunter H2a1e1a, H7e, H7j, H26c und J1c7a, und dass diese möglicherweise mittelalterliche deutsche Vorfahren teilen. In Bayern wurde ein alter nichtjüdischer Träger von J1c7a gefunden. Geschichte Hochmittelalter Ab dem 11. Jahrhundert stellten diverse Reichsstädte den aschkenasischen Judengemeinschaften Schutzbriefe aus, um von der regen Handelstätigkeit der aschkenasischen Juden und einem damit verbundenen wirtschaftlichen Aufschwung zu profitieren. Trotz dieses Protektionsversprechens der Reichsstädte für die aschkenasischen Juden zerstörten im Jahre 1096 beim ersten Kreuzzug christliche Kreuzfahrer die Judengemeinden des Rheinlands, ermordeten die meisten Mitglieder oder versuchten, sie zwangszutaufen. Dem kamen manche aschkenasischen Gemeinden durch Gruppenselbsttötung zuvor, die sie als Heiligung des jüdischen Gottes JHWH (Kiddusch Haschem) verstanden. Die Kalonymiden begründeten eine einflussreiche Schule zur jüdischen Dichtkunst, zu Werken des Saadia Gaon und zur vorkabbalistischen Merkaba-Literatur. Sie prägten die aschkenasische Mystik, aus der seit etwa 1150 der mittelalterliche Chassidismus entstand. Ab etwa 1200 entstand Jiddisch, eine Art mittelhochdeutscher, mit vielen Hebraismen und Aramaismen angereicherter und in hebräischer Schrift geschriebener Dialekt. Diese Sprache breitete sich mit den Aschkenasim zunächst nach Osteuropa, später in die ganze Welt aus, trug entscheidend zu ihrer eigenen Kultur bei und ist bis heute, wenn auch nur noch sehr selten gesprochen, erhalten. Während der Pestepidemie von 1349 kam es im französischen und deutschen Sprachraum erneut zu zahlreichen Pogromen gegen die aschkenasischen Gemeinden (siehe Judenverfolgungen zur Zeit des Schwarzen Todes). Viele Überlebende flohen, vor allem nach Polen-Litauen, wo sie willkommen waren und beim Aufbau der Wirtschaft mitwirkten. Frühe Neuzeit Im 13., 14. und 15. Jahrhundert waren die aschkenasischen Juden bis auf eine in Deutschland, Böhmen und Italien verbliebene Minderheit aus West- und Mitteleuropa nach Osteuropa vertrieben worden und siedelten in die Ukraine, nach Rumänien, Russland, Ungarn und vor allem ins Königreich Polen-Litauen um (siehe Juden in Mittel- und Osteuropa). Die daraus entstandenen jüdischen Gemeinden behielten bis zum Holocaust ihren ausgeprägt aschkenasisch-rabbinischen Charakter. Die Liturgie und die religiösen Traditionen der Juden aus Polen-Litauen stützten sich auf mittelalterliche Überlieferungen. Bis zum 16. Jahrhundert hatten die meisten führenden polnischen Rabbiner ihre Ausbildung in Talmudschulen in Deutschland und Böhmen erhalten und emigrierten anschließend in die osteuropäischen Gemeinden. Im Gegensatz zu den sephardischen Juden, die im relativ toleranten und kulturell offenen islamischen Herrschaftsbereich zahlreiche philosophische und literarische Traditionen entwickelten, die von der umgebenden Kultur beeinflusst waren, sonderten sich die aschkenasischen Juden in Osteuropa von der ihnen größtenteils feindlich gesinnten christlichen Umwelt mehr und mehr ab. Ihr geistiges Interesse beschränkte sich lange Zeit ausschließlich auf die rabbinische Literatur. Doch trotz ihrer Absonderung von der christlichen Gesellschaft fanden Juden in Polen-Litauen zunächst viel mehr Sicherheit als in Westeuropa. Dies beruht in großem Maße auf Privilegien, die ihnen die polnischen Könige und litauischen Großfürsten gewährten. 70 Prozent der polnisch-litauischen Aschkenasim lebten in Städten gleichrangig neben Nichtjuden. Adelige Grundbesitzer förderten aschkenasische Händler, weil diese hohe Preise auf landwirtschaftliche Produkte zahlten, gute Auslandsverbindungen besaßen und sich politisch loyal verhielten. Das bewirkte einen Aufschwung polnisch-litauischer Ortschaften und deren Judengemeinden. Daraus entstanden die Schtetlech, in denen Aschkenasim die Bevölkerungsmehrheit stellten, vorwiegend das Ortszentrum bewohnten und eine eigene soziale Organisation prägten. Sie bildeten in von nichtjüdischen Königsbeamten verwalteten und von christlichen Gilden und Zünften dominierten Städten Polen-Litauens einflussreiche, aber als Konkurrenz abgelehnte Minderheiten. Im 18. Jahrhundert dominierten sie den Handel und das Handwerk im feudalistischen Ständestaat Polen-Litauen. Ab 1600 begannen osteuropäische Aschkenasim und einige Sephardim, teils zwangschristianisiert, infolge von Pogromen und im Zuge des Dreißigjährigen Krieges sich erneut vermehrt in mittel- und westeuropäischen Handelszentren anzusiedeln. Um 1650 gab es insgesamt geschätzt knapp 500.000 Aschkenasim. Zurückwandernde Aschkenasim aus Osteuropa gründeten im 17. und 18. Jahrhundert neue jüdische Gemeinden in den großen Städten Mittel- und Westeuropas. In deutschen Gebieten erlaubte der jeweilige Herrscher zunächst einem Hofjuden und seinen Bediensteten den Zuzug. Daraus entstanden neue Judengemeinden, die zumeist vom auch als Schtadlan bekannten jeweiligen Hofjuden vertreten wurde. Die deutschen Behörden verlangten von den aschkenasischen Zuwanderern hohe Zahlungen für Ansiedlungsrechte, beaufsichtigten ihre Erwerbsquellen, begrenzten ihre Bewegungsfreiheit und griffen in ihre Rechtsprechung ein. Dadurch gerieten die neuen Gemeinden in starke Abhängigkeit von der Gunst der Behörden. Versuche der führenden aschkenasischen Juden, autonome Organisationsformen in Übereinkunft mit den jeweiligen Herrschern zu bewahren, verstärkten oft die Distanz zwischen reicheren und ärmeren Aschkenasim und das Misstrauen von Nichtjuden. 20. Jahrhundert bis heute In Folge von antisemitischen Pogromen emigrierten zwischen 1881 und 1924 etwa zwei Millionen Aschkenasim aus dem Russischen Kaiserreich sowie aus Mittel- und Osteuropa vor allem in die USA, nach Südafrika und Australien. Der Zweite Weltkrieg und der Holocaust lösten weitere umfangreiche Flüchtlingswellen in die USA, nach Südamerika und vor allem in das von aschkenasischen Juden gegründete Israel aus. Laut einer Studie der Hebräischen Universität Jerusalem leben in Israel 2,8 Millionen Aschkenasim, in den USA sind geschätzte 90 Prozent der 6 Millionen dort lebenden Juden Aschkenasim. In Deutschland leben etwa 200.000 aschkenasische Juden. Das heutige Judentum besteht zu etwa 80 Prozent und entsprechend 10 Millionen Menschen aus Aschkenasim. Derzeit sind New York City, London, Antwerpen, Manchester und zunehmend wieder Berlin die zahlenmäßig und kulturell bedeutendsten Metropolen aschkenasischen Wirkens. Die kulturelle Kluft zwischen Aschkenasim und anderen jüdischen Gruppen wie der Sephardim und der Mizrachim hinsichtlich politischen Einflusses, Brauchtum, Glaubensvorstellungen, Bildung, Gewohnheiten und Sprache ist vor allem in Israel unübersehbar. Kulturelle Unterschiede lassen sich an verschiedenen Bestattungsweisen erkennen. Der jüdische Friedhof in Hamburg-Altona ist einzigartig, da hier Aschkenasim und Sepharden auf demselben Friedhof ruhen. Im aschkenasischen Teil des Friedhofs sind die Grabsteine stehend aufgestellt und tragen hebräische Inschriften, während im sephardischen Teil Grabplatten in den Boden eingelassen wurden, die oft portugiesische Inschriften tragen und reich mit Reliefs geschmückt sind. Familiennamen Aschkenasische Juden hatten bis zum Beginn des 19. Jahrhunderts meist noch keine festen Familiennamen. In aller Regel wurde der Name des Vaters als zweiter Name benutzt, also beispielsweise Jakob ben Nathan = Jakob, Sohn des Nathan. Grund dafür ist unter anderem die Verordnung von Rabbenu Tam (Jacob ben Meir) aus dem 12. Jahrhundert, dass in einer Scheidungsurkunde nur von Juden unter Juden verwendete Namen (d. h. Eigen- und Vatersnamen) verwendet werden durften, aber nicht von Juden ausschließlich im Verkehr mit Nichtjuden verwendete Beinamen. Diese Anweisung wurde danach bei vergleichbaren Verträgen, zum Beispiel Ehe- und Geschäftsverträgen, adäquat angewendet. Bis heute bestehen jüdische Namen aus dem Vornamen und dem Vornamen des Vaters, wobei ein ben ‚Sohn (von)‘ beziehungsweise bat ‚Tochter (von)‘ dazwischengeschoben wird. Im religiösen Bereich wird der Name besonders zu rituellen Zwecken benutzt, so bei Jungen erstmals bei der Beschneidung sowie bei der Bar Mitzwa anlässlich des Aufrufs zur Toralesung. In der Regel steht dieser Name auf dem Grabstein eines Juden. Es gab Ausnahmen von dieser Regel. Am wichtigsten war der Brauch, eine rabbinische Dynastie mit einem – meist vom Herkunftsort des Gründers abgeleiteten – Familiennamen zu bezeichnen, zum Beispiel von Katzenelnbogen oder Emden. Diese Nachnamen dienten teils als Familiennamen, teils sozusagen als Markennamen. Schwiegersöhne, die Rabbiner wurden, erbten oft den Namen, und Söhne, die nicht Rabbiner wurden, trugen ihn meistens nicht. Ebenfalls vom Herkunftsort abgeleitet sind die typisch aschkenasischen Familiennamen Oppenheim, Warburg, Guggenheim, Frankfurter, Landauer, Feuchtwanger, Kissinger, Spira und ähnlich (von Speyer), Dreyfuss (von französisch Trèves für Trier) und Mintz (von Mainz). Zum Teil wurden Familiennamen von einzelnen Häusern abgeleitet. Bekannt sind die Ableitungen Rothschild – vom „Haus zum Rothen Schild“ – und Schwarzschild – vom „Haus zum Schwarzen Schild“ – von Häusern der Frankfurter Judengasse. Aus der Tora leiten sich die aschkenasischen Namen Rubin, Bernstein, Diamant und die ihnen zuzuordnenden Fahnenfarben Rot/Roth, Grün, Schwarz/Schwartz, Weiss/Weiß, Rosa, oftmals erweitert um Zusätze wie Grünspan, Rosenblatt, Rosenzweig und Rosenthal ab. Vergleichbar sind Silber und Gold beinhaltende Namen, die mit den Erzengeln Michael und Gabriel in Verbindung gebracht werden. Im Judentum wird Michael zusammen mit Gabriel bildhaft als Schutzengel des Volkes Israel benannt. Demnach brachte nach der Überlieferung Gabriel das Gold zur Erde – daher Goldberg, Goldmann oder Goldstein. Nach einer rabbinischen Erzählung besteht Michael ganz aus Schnee, weshalb ihm das Metall Silber zugeordnet ist – demzufolge die Namen Silberberg, Silbermann, Silberstein. Die recht häufig vertretenen aschkenasischen Nachnamen Weizenbaum, Feigenbaum, Honigmann und Teitelbaum beschreiben die heiligen Früchte im 5. Buch Mose. Cohen (mit den Varianten Coen, Cahn, Cohn, Kohn, Kagan, Kahn, Katz und Kuhn) ist der biblische Name von Angehörigen einer Sippe mit priesterlichen Funktionen im aschkenasischen Judentum – den Kohanim. Der Name Levi und die Variante Weil geht auf den jüdischen Volksstamm der Leviten zurück, wurde vom Vater auf den Sohn weitergetragen und erschien in fast allen jüdischen Urkunden, Grabsteinen usw., wenn ein dort erwähnter Mann diesem Stamm zugehörte. Juda, der mächtigste Stamm unter den Zwölf Stämmen Israels, wird traditionell von einem Löwen symbolisiert – auf Jiddisch Loew – und davon abgeleitet Loeb. In den absolutistisch regierten Staaten Mitteleuropas wurde Ende des 18. Jahrhunderts damit begonnen, von jüdischen Bewohnern als Bedingung für erweiterte Bürgerrechte die Annahme eines unveränderbaren Familiennamens zu fordern. Zuerst geschah dies 1787 in den Habsburgischen Erbländern, später folgten jedoch weitere Staaten und Städte. Nach und nach führten dann alle Staaten Europas ähnliche Regelungen ein. Aschkenasische Juden konnten ihre neuen Namen nicht immer frei wählen. So kam es in vereinzelten Fällen zu erniedrigenden oder beleidigenden Nachnamen wie Trinker, Bettelarm und Maulwurf, die später meist wieder geändert werden durften. Die österreichischen und französischen Gesetze ließen keine neuen Namen zu, die den jüdischen Hintergrund des Trägers deutlich herausstellten – bei Namensgebungen aus dem Tanach oder biblischen Städtenamen. Die jüdischen sollten sich von deutschen Familiennamen möglichst nicht unterscheiden, um die Integration der Juden zu fördern, die in dieser Zeit zunächst meist beschränkte und später volle Bürgerrechte erhielten. Sprachen Alltagssprache der Aschkenasim war lange das aus dem Deutschen hervorgegangene Jiddische, religiöse Sprache das Hebräische. Beide bestehen aus mehreren Dialekten. Sephardische Juden in der Diaspora sprachen bzw. sprechen das aus dem Altspanischen hervorgegangene Ladino, das in ihrem religiösen Kontext verwendete Hebräisch zeigt Unterschiede zu dem der Aschkenasim. Die aschkenasische Aussprache des Hebräischen unterscheidet sich von der sephardischen und der des modernen Ivrit, das in Israel gesprochen wird. Letzteres ist nicht rein sephardisch beeinflusst, sondern weist auch Elemente des aschkenasischen Hebräisch auf. Aschkenasisch weicht unter anderem in folgenden Punkten vom Sephardisch-Hebräischen beziehungsweise vom Ivrit ab: Im Aschkenasischen haben, soweit möglich, die meisten Wörter eine Penultima-Betonung, also eine Betonung auf der zweitletzten Silbe, während sie im israelischen Hebräisch meist auf der letzten Silbe betont werden. Das aschkenasische Hebräisch unterscheidet nicht zwischen א (Aleph, stimmloser glottaler Plosiv ) und ע (Ajin, stimmhafter pharyngaler Frikativ ). Das aschkenasische Hebräisch unterscheidet wie das tiberianische Hebräisch zwischen Patach (tiberianisch /a/ [], aschkenasisch /a/ []) und Qamaz (tiberianisch /åː/ [], aschkenasisch /o/ [] oder regional in offener Silbe auch /u/ []); im Ivrit sind dieses beiden Laute in /a/ zusammengefallen (der siebte Tag, „Sabat“, heißt im aschkenasischen Hebräisch deshalb Schabbos [], im Ivrit Schabbat []; zur Unterscheidung von /s/ und /t/ siehe unten zur Realisierung des Taw). Sere und Schuruq werden im Aschekanischen meist als Diphthonge, im Sephardischen und im Ivrit als Monophthonge ausgesprochen. Aschkenasisch /ej, aj/ und /ou, au, oj/ stehen damit sephardisch /eː/ und /oː/ gegenüber; im Ivrit gilt ebenfalls /o/, wogegen es sowohl /ej/ als auch /e/ kennt. Die zweifache Aussprache des Buchstaben ת (Taw), der ursprünglich zum einen für den Laut /t/ [] und zum andern für das stimmlose th [] stand, ist im Aschkenasischen als /t/ versus stimmloses /s/ [] erhalten geblieben (so wird der hebräische Name des Laubhüttenfests im Aschkenasischen Sukojs ausgesprochen, im Jiddischen Sukkes, jeweils mit Betonung der ersten Silbe, im modernen Ivrit dagegen Sukkot mit -t und mit Endbetonung). Jacob Emden schrieb daher im 18. Jahrhundert, das aschkenasisch ausgesprochene Taw klinge wie das Samech (ס). Der Buchstabe ח (Ḥet) wird im Aschkenasischen nicht als stimmloser pharyngaler Frikativ gesprochen. Jacob Emden erwähnt die Aussprache als stimmloser glottaler Frikativ wie beim Buchstaben ה (He). Verbreiteter ist die Aussprache als stimmloser uvularer Frikativ wie beim spirantisierten Kaph (כ, am Wortende ך). TV-Beiträge Israel: Sderot, das zweite Israel, 12.22 Minuten, Arte Reportage, 7. März 2023 Siehe auch Geschichte der Juden in Deutschland Literatur Predrag Bukovec: Aschkenasische Juden im Europa der Frühen Neuzeit. In: Institut für Europäische Geschichte (Mainz) (Hrsg.): Europäische Geschichte Online. 2010. Jörg R. Müller: Beziehungsnetze aschkenasischer Juden während des Mittelalters und der frühen Neuzeit. Hahnsche Buchhandlung, 2008, ISBN 978-3-7752-5629-2. Weblinks Encyclopaedia Judaica: Ashkenaz. 2. Band, 2. Auflage. Macmillan Reference, Detroit 2007, S. 569–571. Aschkenase/Aschkenasim im Glossar der Stiftung gegen Rassismus und Antisemitismus Einzelnachweise Judentum in Europa Geschichte Israels Zionismus Jüdische Geschichte (Mittelalter)
Q34069
201.745487
3093
https://de.wikipedia.org/wiki/Lippenbl%C3%BCtler
Lippenblütler
Die Lippenblütler oder Lippenblütengewächse (Lamiaceae oder Labiatae) bilden eine Pflanzenfamilie in der Ordnung der Lippenblütlerartigen (Lamiales). Die Familie gliedert sich seit 2016 in zehn Unterfamilien und umfasst etwa 230 Gattungen und mehr als 7000 Arten. Sie sind weltweit in allen Klimazonen vertreten. Beschreibung Erscheinungsbild und Laubblätter Sie wachsen als einjährige bis ausdauernde krautige Pflanzen oder verholzende Pflanzen: Halbsträucher, Sträucher, Bäume oder Lianen. Die Sprossachse ist oft hohl und vierkantig. Die meist gegenständig, manchmal quirlständig oder selten wechselständig angeordneten Laubblätter sind gestielt bis ungestielt. Die Blattspreite ist selten gefiedert, häufig einfach. Der Blattrand ist glatt, gekerbt, gezähnt oder gesägt. Nebenblätter fehlen. Blütenstände und Blüten Die Blüten stehen einzeln oder achselständig in dichten mono- oder dichasialen Scheinquirlen. Selten sind Arten zweihäusig getrenntgeschlechtig (diözisch). Die meist zwittrigen Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle. Die fünf Kelchblätter sind röhrig verwachsen mit fünf Kelchzähnen oder zwei Kelchlippen. Man kann Mitglieder dieser Pflanzenfamilie oft anhand der charakteristischen „Lippenblüten“ erkennen; die Blütenkronen erinnern an Ober- und Unterlippe. Sie zeichnen sich durch eine „Oberlippe“ (oft zurückgebildet) und eine „Unterlippe“ der Blüte aus; in der Regel sind von den fünf Kronblättern zwei zur Oberlippe und drei zur Unterlippe verwachsen. Ähnliche Blütentypen kommen aber auch in anderen Familien der Ordnung der Lippenblütlerartigen (Lamiales) vor. Es ist nur ein Kreis mit ursprünglich fünf Staubblättern vorhanden; eines ist reduziert, so dass nur vier, manchmal auch nur zwei fertile Staubblätter vorhanden sind, die mit dem Grund der Kronröhre verwachsen sind. Zwei Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen; er ist durch falsche Scheidewände in vier Kammern gegliedert. Der Griffel endet in zwei Narben. Die Blütenformel lautet: Früchte Es werden typischerweise Klausenfrüchte gebildet, die in vier einsamige Teilfrüchte (Klausen) zerfallen. Aber es gibt auch Taxa mit Beeren oder Steinfrüchten (Viticoideae). Einige Arten bilden geflügelte Nussfrüchte. Inhaltsstoffe Oft enthalten sie ätherische Öle und duften aromatisch. Die wichtigsten Inhaltsstoffe sind ätherische Öle: beispielsweise giftige wie Kampher, Perillaketon, Pinocamphon, Pulegon, Thujon. Oft kommen auch nichtflüchtige, diterpenoide Bitterstoffe vor wie Carnosol (Pikrosalvin, Marrubin) und Carnosolsäure. Ökologie Die Bestäubung erfolgt durch Insekten (Entomophilie) oder durch Vögel (Ornithophilie). Die Lippenblütler haben teilweise hoch spezialisierte, an die Blütenbesucher besonders angepasste Bestäubungsmechanismen entwickelt. Systematik und Verbreitung Synonyme für Lamiaceae und Labiatae nom. cons. sind: Aegiphilaceae , Chloanthaceae , Dicrastylidaceae nom. nud., Menthaceae , Nepetaceae , Salazariaceae , Scutellariaceae , Symphoremataceae , Viticaceae Der botanische Name der Typusgattung (Lamium) der Familie Lamiaceae ist aus dem griechischen Wort lamós für Schlund, Rachen abgeleitet und der Name Labiatae ist aus dem lateinischen Wort labium für Lippe abgeleitet. Die Familie Lamiaceae umfasst etwa 230 Gattungen und 5000 bis mehr als 7000 Arten. Die Familie Lamiaceae gliederte sich in sieben Unterfamilien und bei Li et al. 2016 wurden drei weitere Gattungen aufgestellt. Hier sind die zehn Unterfamilien mit ihren Gattungen und Artenzahlen sowie ihrer Verbreitung: Unterfamilie Lamioideae : Sie enthält 62 bis 63 Gattungen mit 1200 bis 1260 Arten, siehe Hauptartikel Lamioideae. Unterfamilie Nepetoideae : Sie enthält etwa 105 Gattungen mit etwa 3675 Arten, siehe Hauptartikel Nepetoideae. Unterfamilie Ajugoideae (Syn.: Teucrioideae): Sie enthält nur eine Tribus mit 23 bis 26 Gattungen und 760 bis 1115 Arten: Tribus Ajugeae Aegiphila : Die 120 bis 180 Arten sind vom südlichen Mexiko über Mittelamerika bis zum südlichen Brasilien und nördlichen Argentinien verbreitet. Günsel (Ajuga ): Die 40 bis 50 Arten sind in Eurasien verbreitet mit einem Schwerpunkt der Artenvielfalt in Vorderasien. Amasonia : Die etwa fünf Arten sind in der Neotropis Südamerikas verbreitet. Amethystea : Sie enthält nur eine Art: Amethystea caerulea : Sie ist in Asien von der Türkei bis Japan verbreitet. Bartblumen (Caryopteris , Syn.: Barbula , Mastacanthus ): Die etwa acht Arten sind im gemäßigten bis subtropischen Asien verbreitet. Losbäume (Clerodendrum , Syn.: Adelosa , Agricolaea , Archboldia , Bellevalia , Cleianthus , Cryptanthus , Egena , Huxleya , Marurang , Montalbania , Siphoboea , Siphonanthus , Torreya , Valdia , Volkmannia ): Im Umfang von etwa 500 Arten war sie polyphyletisch. Es wurden viele Arten in andere Gattungen ausgegliedert und dann enthält diese monophyletische Gattung noch etwa 425 Arten. Clerodendrum-Arten gedeihen in tropischen bis warm-gemäßigten Gebieten der Welt. Discretitheca : Sie enthält nur eine Art: Discretitheca nepalensis : Sie kommt nur in Nepal vor. Glossocarya : Die etwa zehn Arten sind in Sri Lanka, Südostasien, Neuguinea und dem australischen Bundesstaat Queensland verbreitet. Holocheila : Sie enthält nur eine Art: Holocheila longipedunculata : Sie kommt nur in Yunnan in Misch- und Bambus-Wäldern, schattigem Dickicht und in Grasländern in Höhenlagen von 1600 bis 2200 Metern vor. Hosea : Sie enthält nur eine Art: Hosea lobbii : Dieser Endemit kommt nur in Sarawak vor. Kalaharia : Sie kommt mit zwei Arten im tropischen und südlichen Afrika vor. Karomia : Von den etwa neun Arten sind acht von Kenia über das tropische Ostafrika bis ins südliche Afrika sowie Madagaskar verbreitet und eine kommt in Vietnam vor. Karomia gigas : Aus Kenia und Tansania. Monochilus : Die etwa zwei Arten kommen nur in Brasilien vor, die eine nur im Bundesstaat Goiás und die andere nur in Rio de Janeiro. Oncinocalyx : Sie enthält nur eine Art: Oncinocalyx betchei : Sie kommt im östlichen Australien vor. Sie wird auch als Teucrium betchei zu Teucrium gestellt. Ovieda : Die etwa acht Arten kommen Kuba und auf Hispaniola vor. Oxera (Syn.: Borya , Faradaya , Maoutia , Oncoma , Schizopremna ): Die etwa 24 Arten sind in Borneo, Australien, Neuguinea, Neukaledonien, Polynesien, und Melanesien verbreitet. Rotheca (Ihre Arten waren manchmal in Clerodendrum enthalten): Die etwa 35 Arten sind vom tropischen bis südlichen Afrika sowie Madagaskar verbreitet und kommen im tropischen Asien vor. Rubiteucris : Sie enthält nur zwei Arten. Sie sind vom Himalaja bis Taiwan verbreitet. Schnabelia : Die früher zwei, seit 1999 fünf Arten kommen alle in China vor. Spartothamnella : Die drei Arten kommen in Australien vor. Tetraclea : Sie enthält nur eine Art: Tetraclea coulteri (Syn.: Clerodendrum coulteri ): Sie kommt von den südlichen und zentralen Vereinigten Staaten bis ins nordöstliche Mexiko vor. Teucridium : Sie enthält nur eine Art: Teucridium parvifolium : Sie kommt nur in Neuseeland vor. Gamander (Teucrium , Syn.: Botrys , Chamaedrys , Iva , Kinostemon , Melosmon , Monipsis , Monochilon , Oncinocalyx , Poliodendron , Polium , Scorbion , Scordium , Scorodonia , Spartothamnella , Spartothamnus , Teucridium , Trixago ): Die 250 bis 260 Arten sind fast weltweit verbreitet mit einem Schwerpunkt im Mittelmeerraum. Trichostema (Syn.: Eplingia , Isanthus ): Die etwa 19 Arten sind von Nordamerika bis Mexiko verbreitet. Tripora : Sie enthält nur eine Art: Tripora divaricata : Sie kommt von China über Korea bis Japan vor. Volkameria : Die etwa zehn Arten gedeihen von den Subtropen bis Tropen in vielen Gebieten der Welt. Unterfamilie Cymarioideae : Sie wurde 2016 aufgestellt. Typusgattung ist Cymaria Sie wird nicht in Tribus gegliedert und enthält nur zwei Gattungen mit insgesamt drei bis vier Arten im tropischen Asien: Acrymia Sie enthält nur eine Art: Acrymia ajugiflora : Sie kommt nur auf der malaiischen Halbinsel in den Bundesstaaten Perak sowie Selangor vor. Cymaria : Die nur zwei bis drei Arten sind auf der Insel Hainan, in Indochina und Malesien verbreitet. Unterfamilie Peronematoideae : Sie wurde 2016 aufgestellt. Typusgattung ist Peronema . Sie wird nicht in Tribus gegliedert und enthält nur vier Gattungen mit insgesamt etwa 17 Arten hauptsächlich im tropischen Asien: Garrettia : Sie enthält nur eine Art: Garrettia siamensis : Sie kommt im südwestlichen China, in Thailand und auf Java vor. Hymenopyramis : Die etwa sieben Arten sind in Indien, Indochina und China verbreitet. Peronema : Sie enthält nur eine Art: Peronema canescens : Sie kommt in Thailand, Malaysia, Borneo, Sumatra und Java vor. Petraeovitex : Die etwa acht Arten kommen in Myanmar, Thailand, auf Borneo, auf der Malaiischen Halbinsel, auf Sumatra, auf den Philippinen, auf den Molukken, in Neuguinea, auf dem Bismarck-Archipel, auf den Salomonen und eine Art auch auf der australischen Kap-York-Halbinsel. Der Schwerpunkt der Artenvielfalt ist Borneo. Petraeovitex bambusetorum : Aus Borneo und der Malaiischen Halbinsel. Unterfamilie Premnoideae : Sie wurde 2016 aufgestellt. Typusgattung ist Premna . Sie wird nicht in Tribus gegliedert und enthält nur etwa drei Gattungen mit insgesamt etwa 200 Arten in den Subtropen bis Tropen: Cornutia : Die etwa zwölf Arten sind in der Neotropis verbreitet. Gmelina : Die etwa 31 Arten sind vom subtropischen bis tropischen Asien bis Australien und auf Inseln des westlichen Pazifik verbreitet. Premna : Die 50 bis 200 Arten sind vom subtropischen bis tropischen Asien, Afrika, Australien und auf Pazifischen Inseln verbreitet. Unterfamilie Prostantheroideae (Syn.: Chloanthoideae ): Sie wird in zwei Tribus gegliedert und enthält etwa 16 Gattungen mit etwa 317 Arten; alle kommen nur in Australien vor: Tribus Chloantheae : Sie kommen nur in Australien vor: Chloanthes : Die etwa vier Arten kommen nur in Australien vor. Cyanostegia : Die etwa fünf Arten kommen nur in Australien vor. Dicrastylis : Die 26 bis 34 Arten kommen nur in Australien vor. Hemiphora : Die etwa fünf Arten kommen im westlichen Australien vor. Lachnostachys : Mit etwa sechs Arten kommen nur in Australien vor. Mallophora : Die nur zwei Arten kommen im westlichen Australien vor. Newcastelia : Die zehn bis zwölf Arten kommen nur in Australien vor. Physopsis : Die nur zwei Arten kommen im westlichen Australien vor. Pityrodia : Die 36 bis 45 Arten kommen nur in Australien vor. Tribus Westringieae (Syn.: Prostanthereae): Die etwa sechs Gattungen mit etwa 240 Arten kommen nur in Australien vor. Hemiandra : Die etwa sieben Arten kommen nur in Australien vor. Hemigenia : Die etwa 50 Arten kommen nur in Australien vor. Microcorys : Die 16 bis 21 Arten kommen nur in Australien vor. Prostanthera (Syn.: Chilodia , Cryphia , Eichlerago , Klanderia ): Die etwa 100 Arten kommen nur in Australien vor. Westringia : Die 25 bis 31 Arten kommen nur in Australien vor. Wrixonia (manchmal in Prostanthera): Sie enthält nur eine, manchmal zwei Arten: Wrixonia prostantheroides : Sie kommt nur im westlich-zentralen Western Australia vor. Unterfamilie Scutellarioideae : Sie enthält nur eine Tribus mit vier bis fünf Gattungen und etwa 380 Arten (allerdings die meisten in der Gattung Scutellaria, drei Gattungen sind monotypisch): Tribus Scutellarieae : Holmskioldia : Sie enthält nur eine Art: Holmskioldia sanguinea : Sie gedeiht im Himalaja-Gebiet. Sie wird in frostfreien Gebieten als Zierpflanze verwendet und ist in einigen Gebieten verwildert. Renschia : Sie enthält nur eine Art: Renschia heterotypica : Dieser Endemit kommt nur im nördlichen Somalia vor. Es könnte noch eine zweite Art geben. Helmkräuter (Scutellaria , Syn.: Anaspis , Cassida , Cruzia , Harlanlewisia , Hastifolia , Perilomia , Salazaria , Theresa ): Die 350 bis 360 Arten sind fast weltweit verbreitet, aber nur wenige Arten kommen im tropischen Afrika vor; in China gibt es beispielsweise 98 Arten. Tinnea : Die etwa 19 Arten sind vom tropischen bis südlichen Afrika verbreitet. Wenchengia : Sie enthält nur eine Art: Wenchengia alternifolia : Es ist ein Endemit in tropischen Wäldern in Höhenlagen von etwa 400 Metern in der chinesischen Provinz Hainan. Unterfamilie Symphorematoideae : Sie enthält nur eine Tribus mit nur drei Gattungen und etwa 30 Arten in Asien: Tribus Symphoremateae : Congea : Die zehn bis zwölf Arten sind hauptsächlich in Südostasien verbreitet, zwei davon kommen in China vor. Sphenodesme : Die 15 bis 16 Arten sind hauptsächlich im tropischen sowie subtropischen Asien verbreitet. Symphorema : Die nur drei Arten sind in Indien, Myanmar, Thailand und auf den Philippinen verbreitet; eine Art kommt auch in China vor. Unterfamilie Viticoideae : Sie enthält nur eine Tribus mit 10 bis 14 Gattungen und 376 bis 526 Arten: Tribus Viticeae : Adelosa : Sie enthält nur eine Art: Adelosa microphylla : Sie ist in Madagaskar beheimatet. Archboldia : Sie enthält nur eine Art: Archboldia ericoides : Sie ist in Neuguinea beheimatet. Paravitex (Sie wird manchmal in Vitex gestellt): Sie enthält nur eine Art: Paravitex siamica : Die Heimat ist Thailand. Petitia : Die nur eine oder zwei Arten kommen in Florida, den Bahamas und den Großen Antillen und nördlichen Kleinen Antillen vor. Petitia domingensis : Florida, den Bahamas und Große Antillen bis zu den nördlichen Kleinen Antillen. Pseudocarpidium : Die etwa acht Arten kommen auf den Bahamas, Kuba und Hispaniola vor. Teijsmanniodendron : Die etwa 14 Arten sind in Südostasien verbreitet. Tsoongia (Sie wird manchmal in Vitex gestellt): Sie enthält nur eine Art: Tsoongia axillariflora : Sie ist in China, Myanmar sowie Vietnam verbreitet. Vitex (Syn.: Macrostegia , Neorapinia ): Die etwa 250 Arten sind weitverbreitet, hauptsächlich pantropisch, wenige Arten in den Gemäßigten Gebieten. Viticipremna (Sie wird manchmal in Vitex gestellt): Die etwa fünf Arten sind in Australasien verbreitet. Vorerst drei bis zehn Gattungen sind keiner Unterfamilie zugeordnet: incertae sedis (Auswahl): Callicarpa : Die etwa 140 Arten sind hauptsächlich im tropischen sowie subtropischen Asien verbreitet; einige Arten gibt es in der Neotropis sowie tropischen Afrika und sehr wenige Arten in gemäßigten Gebieten Asiens sowie Nordamerikas. In China kommen 48 Arten vor. Ombrocharis : Sie enthält nur eine Art: Ombrocharis dulcis : Sie gedeiht nur in Hunan in subtropischen immergrünen Wäldern in einer Höhenlage von etwa 1300 Metern. Tectona : Die drei bis vier Arten sind in Indien, Myanmar, Malaysia und auf den Philippinen beheimatet. Eine Art wird in den Tropen weltweit angebaut und ist in einigen tropischen Gebieten verwildert: Teakbaum (Tectona grandis ) Nutzung Viele der Pflanzenarten dieser Familie zeichnen sich durch ätherische Öle aus, weshalb sie als Gewürz- oder Heilpflanzen genutzt werden. Mehr als 60 Arten werden allein in den gemäßigten Gebieten angepflanzt, und viele Arten – etwa Minzen (Mentha), Basilikum (Ocimum basilicum), Lavendel (Lavandula) oder Salbei (Salvia) – werden gewerbsmäßig kultiviert. Zwei Pogostemon-Arten aus Südostasien (Indisches Patschuli und Javanisches Patschuli) liefern das Patschuli-Öl, das ein wertvoller Grundstoff für schwere Parfüme ist. Einige Arten der Lippenblütler haben vor allem regionale Bedeutung. Gliedkräuter (Sideritis) dienen im östlichen Mittelmeergebiet als Teekraut, im Iran würzt man Joghurt mit Ziziphora und in Indien und Südostasien dienen die Knollen von Coleus rotundifolius als Kartoffelersatz. Die Früchte des Mönchspfeffer (Vitex agnus-castus) werden als Gewürz verwendet. Viele Arten werden als Zierpflanze genutzt, darunter Ajuga, Monarda, Nepeta, Physostegia, Phlomis, Salvia, Scutellaria, Stachys und Teucrium. Quellen Die Familie Lamiaceae s.l. bei der APWebsite (Abschnitte Beschreibung und Systematik). Xi-wen Li, Ian C. Hedge: Lamiaceae. In: (Abschnitte Beschreibung und Systematik). Shou-liang Chen, Michael G. Gilbert: Verbenaceae. In: (Abschnitte Beschreibung und Systematik). Raymond M. Harley, S. Atkins, A. Budantsev, P. D. Cantino, B. Conn, R. Grayer, M. M. Harley, R. de Kok, T. Krestovskaja, A. Morales, A. J. Paton, O. Ryding, T. Upson: Labiatae. In: Einzelnachweise Trivia Hubert Lippenblüter, Figur bei Jürgen von der Lippe Weblinks Die Familie Lamiaceae s. str. bei DELTA. (engl.) Kurze Beschreibung der Familie. (deutsch)
Q53476
262.002659
5419602
https://de.wikipedia.org/wiki/Crowdfunding
Crowdfunding
Crowdfunding (von und ), auf Deutsch auch Schwarmfinanzierung oder Gruppenfinanzierung, ist eine Art der Finanzierung. Mit dieser Methode der Geldbeschaffung lassen sich Projekte, Produkte, die Umsetzung von Geschäftsideen und vieles andere mit Eigenkapital oder dem Eigenkapital ähnlichen Mitteln, in Deutschland zumeist in Form partiarischer Darlehen oder stiller Beteiligungen, versorgen. Eine so finanzierte Unternehmung und ihr Ablauf werden auch als eine Aktion bezeichnet. Ihre Kapitalgeber sind eine Vielzahl von Personen – in der Regel Internetnutzer, da zum Crowdfunding meist im World Wide Web aufgerufen wird. Geschichte Begriff Historisch gesehen ist Crowdfunding ein relativ junger Begriff, der erst seit einigen Jahren verstärkt eingesetzt wird. Der Begriff des Crowdsourcing wurde von Jeff Howe in einem Wired-Artikel geprägt. Einige Jahre später erarbeitete er auch erste Ansätze für eine Definition des Begriffs Crowdfunding, angelehnt an Crowdsourcing. Das Wort setzt sich aus den englischen Wörtern crowd ‚Menge, Menschenmasse‘ und funding ‚Finanzierung‘ zusammen. Als Verdeutschung wird gelegentlich Schwarmfinanzierung verwendet. Mit der Herkunft dieser Eindeutschung beschäftigte sich im März 2013 der Sprachwissenschaftler Anatol Stefanowitsch im Sprachlog in den Beiträgen And the Winner is: Crowdfunding! und Sprachschmuggler in der Wikipedia? Dabei ergaben seine Recherchen, dass dieser Begriff seinen Ursprung in einem am 23. März 2011 erfolgten Eintrag im Artikel Crowdfunding der deutschsprachigen Wikipedia habe. Man kann vier Varianten des Crowdfunding unterscheiden: Spenden-basiertes Crowdfunding bzw. Spenden-Crowdfunding (Crowd Donation oder Donation-Based Crowdfunding): Spende, ohne materielle oder finanzielle Gegenleistung Klassisches Crowdfunding bzw. belohnendes Crowdfunding (Reward-Based Crowdfunding oder Crowd Supporting, aufgeteilt in Crowdfunding und Vorverkauf): Unterstützer erhalten ein nicht-finanzielles Dankeschön (z. B. Kopie des Projektergebnisses, Möglichkeit einer Vorbestellung oder einer Namensnennung im Abspann) Verleihendes Crowdfunding (Lending-Based Crowdfunding oder Crowd Lending): Crowd verleiht Geld an Projektinitiatoren, welches später zurückgezahlt wird Investierendes Crowdfunding (Equity-Based Crowdfunding oder Crowd Investing genannt): Unterstützer erhalten Anteile am Projekt Crowdfunding gilt bisher eher als Variante für die Finanzierung von Nischen-Projekten; Crowdinvesting benennt eine Art der Mittelaufnahme für Unternehmen oder Immobilien. Hierbei können Beteiligungen an Unternehmen erworben werden. Diese Beteiligungen verbriefen einen Anspruch auf einen Anteil am Unternehmensgewinn sowie häufig auch am Verkaufserlös und können verkauft werden. Beim Crowdinvesting soll, ähnlich wie beim Crowdfunding, das Risiko auf zahlreiche Investoren zu kleinen Beträgen verteilt werden; bei einer Finanzierung durch Business Angels oder Venture Capital wird das Kapital in der Regel dagegen von wenigen aufgebracht. Englischsprachiger Raum Historisches Crowdfunding findet man bereits im 19. Jahrhundert. So wurde z. B. der Sockel für die Errichtung der Freiheitsstatue durch 160.000 Einzelspenden ermöglicht. Als Pioniere des Prinzips kann die britische Progressive-Rock-Band Marillion angesehen werden. Alle Alben der Band seit 2001 werden von deren Fans in dieser Weise vorfinanziert. Im Oktober 2003 startete der Musiker und Produzent Brian Camelio die Internet-Plattform ArtistShare als Reaktion auf die Entwicklungen des Raubkopierens und die Bestrebungen der Musikindustrie für ein digitales Rechtemanagement. Die Website ermöglichte es Musikern, das Geld für die Produktion eines Albums zu erhalten, bevor es veröffentlicht wurde. Als SellaBand im August 2006 in Europa startete, galt es, je 50.000 US-Dollar für Musiker und Bands mit der Hilfe sogenannter Believer zu erreichen, um ein Album zu produzieren. Bereits am 2. November 2006 hatte die Band Nemesea 528 Unterstützer zusammen und konnte so ihr Album aufnehmen. In den vergangenen vier Jahren haben es weitere 50 Bands (Stand: September 2010) ins Tonstudio bei Sellaband geschafft. 2008 wurde Indiegogo gegründet. 2009 wurde in den USA die Crowdfunding-Plattform Kickstarter gegründet. Eine Gewinnbeteiligung gibt es bei Kickstarter nicht. Die Initiatoren versuchen meist, mit einem Video von sich oder dem Projekt zu überzeugen. Nach dem gleichen Vorbild sind u. a. mit RocketHub weitere Crowdfunding-Plattformen online gegangen. Anfang 2010 nutzte mit Public Enemy eine bereits etablierte Band solch eine Crowdfunding-Plattform, um ihr nächstes Album gemeinsam mit Fans und Unterstützern finanzieren zu lassen. Die Band selbst beschreibt auf ihrer Website: Im Oktober 2010 stand das Vorhaben bei 91 % von 75.000 US-Dollar. Das eigentliche Ziel in Höhe von 250.000 US-Dollar wurde nach unten korrigiert, als die Plattform im Februar 2010 Insolvenz anmeldete. Seit der Insolvenz wird das einstige niederländische Unternehmen als GmbH mit dem Hauptsitz in München weitergeführt. Im Juni 2010 erhielt das Software-Projekt Diaspora Medienaufmerksamkeit: Für die Entwicklung einer Internetplattform haben vier Studenten 10.000 US-Dollar benötigt. Mit der Plattform wurde Facebook der Kampf angesagt und angekündigt, ein Pendant zu entwickeln, welches bessere Vorkehrungen im Bereich Datenschutz treffen würde und die Daten seiner Nutzer dezentral immer auf dem eigenen Rechner des Anwenders speichere. Dies fand enormen Zuspruch in der Bevölkerung, die das Projekt gemeinsam mit 200.641 US-Dollar überfinanziert hat. Unter den 6.479 Spendern befand sich auch Facebook-Gründer Mark Zuckerberg. Im Interview mit dem Magazin Wired sagte Zuckerberg: Mayday US ist ein Super-PAC in den USA, welcher sich zum Ziel gesetzt hat, alle Super-PACs abzuschaffen. Das Ziel ist es, Abgeordnete in den Kongress zu wählen, welche sich gegen den korrumpierenden Einfluss von Geld in der Politik stellen und Super-PACs abschaffen möchten. Das Projekt ist mit mehr als 7,9 Millionen Dollar ausgestattet und wurde von mehr als 55.300 Spendern durch Crowdfunding finanziert (Stand August 2014). Der Initiator des PACs ist der Harvard Professor Lawrence Lessig. Mit der Unterzeichnung des JOBS Act (Jumpstart Our Business Startups Act) in den USA durch Präsident Barack Obama wurde eine gesetzliche Grundlage geschaffen. Deutschland Zu der 2004 gestarteten Finanzierung des Roadmovies Hatschi Madame – Sorry Monsieur konnte durch den Erwerb einer Eintrittskarte ein Platz im Abspann erworben werden. Einige mediale Aufmerksamkeit wurde Crowdfunding zuteil, als der Film Hotel Desire durch Spenden von 175.000 Euro finanziert wurde. Das bis dato größte Crowdfunding-Projekt im Filmbereich in Deutschland startete die Kölner Firma Brainpool im Dezember 2011. Für den geplanten Kinofilm zur TV-Serie Stromberg wollte das Unternehmen bis März 2012 eine Million Euro einsammeln. Nach zwei Tagen lagen die Einnahmen bereits bei über 150.000 Euro; innerhalb einer Woche wurde die Plansumme erreicht. Neben nationalen Plattformen gibt es auch regionale Crowdfunding-Initiativen. Diese fokussieren sich vor allem auf Projekte für Start-ups aus der jeweiligen Region. Die Novelle des Kleinanlegerschutzgesetzes vom 9. Juli 2015 () hat auch das Crowdinvesting in Deutschland neu geregelt. Schweiz In der Schweiz gibt es rund 40 nationale Crowdfunding-Plattformen, die Crowddonation, Crowdsupporting, Crowdlending und Crowdinvesting abdecken. Als erste Plattform startete „Cashare“ im Jahre 2008 mit Fokus auf Crowdlending. Die größte Plattform (Stand: 2016) ist „wemakeit“, die jegliche Art von Projekten anbietet. Daneben haben sich weitere Plattformen in Angebotsnischen positioniert, wie beispielsweise „I believe in you“ für Sportprojekte, „letshelp“ für Hilfsprojekte im In- und Ausland, „swisspeers“ für die KMU Finanzierung und „lokalhelden.ch“ für Vereine, Organisationen und Privatpersonen mit gemeinnützigen Projekten. Letztgenanntes Portal wird kostenfrei zur Verfügung gestellt. In der Schweiz wurden im Jahr 2017 via Crowdfunding 374,5 Mio. CHF vermittelt, der größte Teil fällt dabei in die Kategorie Crowdlending (186,7 Mio. CHF). Europäische Union Die Verordnung (EU) 2020/1503 über Europäische Schwarmfinanzierungsdienstleister für Unternehmen definiert erstmals EU-weit einheitliche Regeln für die Bereitstellung von investitions- und kreditbasierten Crowdfunding-Dienstleistungen im Zusammenhang mit der Unternehmensfinanzierung. Dies soll es Plattformen ermöglichen, ihre Dienste EU-weit mit einer einzigen Genehmigung anzubieten. Grundlagen Ein häufiges Merkmal von Crowdfunding ist, dass die Gelder zweckgebunden an eine bestimmte Aktion sind. Eine Aktion ist durch eine Mindestkapitalmenge gekennzeichnet, die durch die Masse fremdfinanziert sein muss, bevor die Aktion startet. Im Verhältnis zur Mindestkapitalmenge leistet jedes Mitglied der Masse (Crowdfunder) nur einen geringen finanziellen Anteil. Der Crowdfunder kann eine Gegenleistung erhalten, die verschiedene Formen annehmen kann (z. B. Rechte, Geld, Sachleistungen). Darüber hinaus kann die Gegenleistung einen ideellen oder altruistischen Wert besitzen z. B. die Unterstützung von humanitären Projekten, die keine ökonomische Gegenleistung versprechen. Die Kommunikation zwischen Geldgeber und -nehmer wird über eine Plattform im Internet realisiert. In der Regel veröffentlicht der Geldnehmer über diese Plattform eine weitgehend offene Ausschreibung, die sich an alle geschäftsfähigen Internetnutzer richtet; ohne Ein- oder Ausgrenzung möglicher Geldgeber. Einen wesentlichen Anteil am Erfolg von internetbasierten Crowdfunding-Kampagnen haben soziale Medien, über die ein großer Teil der Geldgeber erreicht wird. Risiken Bisher gibt es für Crowdfunding in Deutschland keine umfassende gesetzliche Grundlage. Daher wird diese Art der Finanzierung als Grauer Markt bezeichnet – im Gegensatz beispielsweise zum Aktienmarkt, wofür in Deutschland neben dem Aktiengesetz weitere Gesetze und Verordnungen erlassen wurden. Ungeklärt ist auch der Fall der Rückzahlung, wie sich am Beispiel der Frankfurter Coa Holding GmbH zeigte. Literatur Ulrike Sterblich, Tino Kreßner, Anna Theil, Denis Bartelt: Das Crowdfunding-Handbuch. orange press, Freiburg 2015, ISBN 978-3-936086-80-5. Karim Serrar, Frank Schwarz, Oliver Gajda: Jahrbuch Crowdfunding. Slingshot, Hamburg 2015, ISBN 978-3-00-051200-1. Kevin Lawton und Dan Marom: The crowdfunding revolution. How to raise venture capital using social media. McGrawHill, New York 2013, ISBN 978-0-07-179045-1. Joachim Hemer: Crowdfunding und andere Formen informeller Mikrofinanzierung in der Projekt- und Innovationsfinanzierung. Fraunhofer, Stuttgart 2011, ISBN 978-3-8396-0313-0. Jakob Carstens und Dana Melanie Schramm: Startup-Crowdfunding und Crowdinvesting: Ein Guide für Gründer. Mit Kapital aus der Crowd junge Unternehmen online finanzieren. Springer Gabler, Wiesbaden 2014, ISBN 978-3-658-05926-2. Weblinks Crowdfunding Industry Report 2012 Elena Gorgis: Crowdfunding und Crowdinvesting – Das kleine Geld der Massen, Deutschlandfunk – „Hintergrund“ vom 23. Juni 2014 Crowdfunding: Wer im Internet wofür Geld einsammelt, Stiftung Warentest, test.de, 4. November 2014, abgerufen am 28. Januar 2015 Einzelnachweise Online-Community E-Business Informatik und Gesellschaft Kreditgeschäft Crowdsourcing Englische Phrase
Q348303
128.846882
191476
https://de.wikipedia.org/wiki/Maskat
Maskat
Maskat ([], ; aus dem Englischen stammende Alternativschreibweise: Muscat) ist die Hauptstadt Omans und liegt im gleichnamigen Gouvernement Maskat. Der Name bedeutet Ort des Fallens, was von der Nutzung als Ankerplatz oder von den steil abfallenden Bergen abgeleitet werden kann. Die eigentliche Stadt hat nur etwa 30.000 Einwohner, zusammen mit ihren Vororten Matrah, Ruwi, Qurum und Sib bildet sie die Muscat Capital Area. Geschichte Bereits im zweiten Jahrtausend vor Christus gab es im Bereich des heutigen Maskat Niederlassungen des Magan-Reiches, dessen Reichtum aus dem Handel mit Kupfer aus dem nördlichen Hadschar-Gebirge und Perlen, die aus dem Golf von Oman und dem Persischen Golf getaucht wurden, resultierte. Diese Zeit der Blüte ging um 500 v. Chr. mit dem Einfall der Perser unter Kyros II. zu Ende. Für die nächsten tausend Jahre sollte die Küste des Nordoman unter der Herrschaft persischer Dynastien wie der Achämeniden, Parther und Sassaniden stehen. Mit der Ausbreitung des Islam in Oman im Jahr 630 ging die Vertreibung der persischen Besatzer einher, was eine Epoche relativer Eigenständigkeit einleitete, die mit kurzen Unterbrechungen vom 7. bis ins 16. Jahrhundert andauern sollte. In dieser Zeit entwickelten sich viele omanische Küstenstädte zu bedeutenden Handelsplätzen. So erlangten das nördlich von Maskat gelegene Suhar wie auch Qalhat im Süden Reichtum und Einfluss durch den Seehandel mit China, Indien und Ostafrika. Die heutige Hauptstadt hatte aber kaum Anteil an dieser Entwicklung. Dennoch beeinflussten die Handelsbeziehungen in die Ferne unweigerlich die Stadt und ihre Gesellschaft. Die Bedeutung der omanischen Küstenzentren für die einheimische Wirtschaft wurde jedoch durch das Auftreten portugiesischer Seefahrer im Golf von Oman zerstört. 1507 fiel Maskat in ihre Hände und wurde teilweise zerstört, ebenso Suhar und Qalhat, das besonders stark getroffen wurde. Die omanische Küste rückte in den Fokus der Europäer, die Omaner selbst zogen sich mit ihrem Sultan vermehrt in die Berge zurück, weshalb sich das politische, wirtschaftliche und soziale Gewicht des Sultanats ins Hinterland verlagerte. Dadurch verloren Maskat und die gesamte Küste für die nächsten hundert Jahre ihre Bedeutung. Stattdessen blühten in der Hadschar-Region Städte wie Nizwa, Bahla, Dschabrin oder Rustaq neu auf. 1650 gelang es Sultan ibn Saif I., die Portugiesen aus Maskat und anderen Orten an der Küste zu vertreiben und die alten Handelshäfen wieder unter einheimischer Regierung zu beleben. Allerdings folgten bald persische Invasionen, die die Entwicklung wiederum störten. 1779 verlegte Hamad ibn Said die Hauptstadt von Rustaq nach Maskat. Nach seinem Tod 1792 gab es wieder Umschichtungen, aber ab 1808 konnte sich Maskat als Regierungssitz behaupten, wurde zu einem wichtigen Seehafen ausgebaut und gegen Ende des 19. Jahrhunderts mit einer 4,5 Meter hohen Mauer und Forts befestigt. Dessen ungeachtet blieb seine Vormachtstellung nicht unangefochten, denn unter Hamad bin Said waren 1784 politische Querelen ausgebrochen, die in der Spaltung des Landes in ein Sultanat an der Küste und ein Imamat im Hinterland resultierten. Somit unterstand Maskat nur ein Teil Omans. Auch im 20. Jahrhundert konnte es seine Position nicht gänzlich verteidigen, da zwar mit dem faktischen Bürgerkrieg 1959 das Imamat beendet wurde, aber der konservative Sultan Said ibn Taimur es vorzog, von Salala im Süden aus zu regieren. Erst mit dem Regierungsantritt seines Sohnes Sultan Qabus 1971 wurde Maskat zur unumschränkten Hauptstadt. Seit 1970 der junge Qabus seinen Vater friedlich entmachtet und ins Londoner Exil verbracht hatte, begann die vorsichtige, aber stetige Modernisierung des Landes. Dies wird als Beginn der sogenannten omanischen Renaissance bezeichnet, im Zuge derer auch die Hauptstadt stark ausgebaut wurde und sich zu dem heutigen Zentrum entwickelte. Heute ist der Großraum eine moderne und dynamische Großstadt. Hier befinden sich moderne Krankenhäuser, viele weiterführende Schulen, große Einrichtungen des Handels und Verkehrs, ein Rundfunk- und Fernsehsender sowie die Börse (Muscat Security Market). Geographie Die Stadt liegt an der Küste im Nordosten des Landes am Golf von Oman, an einer von Felswänden eingeschlossenen Bucht. Hier reicht das Hadschar-Gebirge bis ans Meer heran und erlaubt nur kleine Siedlungen, die durch Gebirgspässe miteinander verbunden sind. Etwa vier Kilometer vom Strand der Stadt entfernt befindet sich die unbewohnte Insel Al Fahal. Aus praktischen Gründen hat sich die Hauptstadt in den letzten Jahrzehnten vor allem in den südlichen Bereich der Küstenebene Batinah ausgebreitet. Auf diese Weise entstand die sogenannte Muscat Capital Area, eine ausgedehnte urbane Zone, bestehend aus verschiedenen kleineren und größeren Ortschaften, die zusammengewachsen sind. Die Metropolitan Area ist die Aorta des Landes, in der sich Wirtschafts- und Finanzkraft wie auch die Bevölkerung konzentrieren. Ungefähr die Hälfte der Einwohner sind allerdings Arbeitsmigranten v. a. aus dem Iran, Pakistan, Indien und von den Philippinen. Ihre billige Arbeitskraft ermöglicht hier (wie in anderen Teilen des Landes) eine ausgeprägte Bautätigkeit. In kurzer Zeit entstanden so Shoppingmalls und Hotels nach westlichem Standard. Außerdem entwickelte sich das Gebiet durch am Reißbrett geplante Wohngebiete und neue Industrieanlagen schnell. Die entsprechenden Verkehrswege werden meist ausgreifend und – trotz des chronischen Wassermangels – begrünt angelegt. Im alten Zentrum der Hauptstadt, Alt-Maskat, das am östlichen Ende der Metropolitan Area liegt, befinden sich der überwiegend zu Repräsentationszwecken genutzte Palast Qasr al-Alam von Sultan Qabus ibn Said sowie weitere Regierungsgebäude. Der ursprüngliche Charakter des alten Kerns hat sich dort, gelegen an einer kleinen Bucht mit einem natürlichen Hafen (den heute zum Teil das Sultanspalastareal für sich beansprucht), flankiert von den beiden Forts Dschalali und Mirani aus der Zeit der portugiesischen Herrschaft (1507–1650), weitgehend erhalten. Da die hohen Berge eine Ausdehnung der Bebauung verhinderten, haben, beginnend in den 1970er Jahren, das Finanz- und Geschäftsviertel Ruwi, die Geschäftszentrale Matrah oder auch das Infrastrukturzentrum Sib der eigentlichen Hauptstadt inzwischen den Rang abgelaufen. Klima Das Klima von Maskat ist semiarid-tropisch, d. h., es ist ganzjährig warm bis heiß mit wenig Niederschlag (durchschnittlich acht Regentage im Jahr), aber hoher Luftfeuchte (beständig zwischen 60 % und 80 %). Die Winter sind hier mit 19–26 °C so warm wie die mitteleuropäischen Sommer. Dies ist auch die einzige Zeit des Jahres, zu der es kurze aber heftige Niederschläge geben kann. Ab April sind die Temperaturen in der Stadt sehr hoch. Durch eine hohe Luftfeuchtigkeit wird die Wirkung noch weiter verstärkt. Die heißeste Zeit des Jahres erstreckt sich von Mai bis Oktober, wenn Spitzentemperaturen von bis zu 46 °C erreicht werden und das Thermometer in der Nacht oft nicht unter 30 °C fällt. Kombiniert mit der hohen Feuchtigkeit in der Luft, die sich vor allem im Juli, August und September durch Ausläufer des südostasiatischen Monsuns bemerkbar macht und zum Teil Küstennebel verursacht, ergibt das häufig gefühlte Temperaturen von über 50 °C. Aufgrund seiner Kessellage ist Alt-Maskat für hohe Nachtwerte prädestiniert, da die Luft nicht zirkuliert und sich wie ein heißer Schleier über die Stadt legt. Gelegentlich werden bis zu 36 °C in der Nacht gemessen. Ein weiteres meteorologisches Phänomen ist, dass die heißesten Stunden des Tages oft nicht wie üblich um die Mittagszeit und am frühen Nachmittag herrschen, sondern oft am Morgen und Vormittag. Es kommt nicht selten vor, dass bereits um 8 Uhr oder 9 Uhr früh 40 °C gemessen werden, das Thermometer ab Mittag jedoch bei 36 °C bleibt. Wirtschaft Die Region um Maskat ist das ökonomische Herz des Landes. Erhebliche Bedeutung kommt hier dem Hafen Mina Sultan Qabus im Stadtteil Matrah für den Export des Erdöls zu, das seit 1967 aus dem gesamten Hinterland in Pipelines hierher befördert und anschließend verschifft wird, da sich hier die einzige Raffinerie und Erdölverladestation des Sultanats befindet. Das „schwarze Gold“ ist die tragende Säule der omanischen Wirtschaft und macht mehr als 50 % der gesamten Staatseinnahmen aus. Obwohl der gewaltige Überschuss an Petrodollars relativ gleichmäßig im ganzen Land verteilt wird, ist ihr Einfluss in der Hauptstadtregion am deutlichsten sicht- und spürbar. Außerdem konzentrieren sich in der Hauptstadtregion die großen Industriebetriebe des Landes, die auf Aluminiumverarbeitung sowie Petrochemie- und Düngemittelherstellung spezialisiert sind. In der Nähe gibt es mehrere bedeutende landwirtschaftliche Betriebe und auch Kraftwerke sowie Meerwasserentsalzungsanlagen. Der private Konsum, der enorm gesteigert werden konnte und sich im großen Souq von Matrah, aber vermehrt natürlich in den modernen Shoppingmalls abspielt, verstärkt die Entwicklung ebenfalls. Maskat ist auch Sitz der wichtigsten Bank in Oman, der BankMuscat. Entscheidend für die Wirtschaft der Region ist der Flughafen Maskat, der etwa 30 km von Alt Maskat entfernt in Sib liegt und derzeit aufwändig erweitert wird. Durch die Erweiterung soll die Zahl der ankommenden und (v. a. auf dem Weg nach Asien und Afrika) umsteigenden Fluggäste von ca. 4 Millionen (2008) auf 12 Millionen (2011) und in fernerer Zukunft auf 48 Millionen gesteigert und eine Konkurrenz zu beispielsweise Dubai und Doha aufgebaut werden. In direktem Zusammenhang mit dem Flughafen steht der Tourismus, der sich auf den Norden des Sultanats konzentriert und von Maskat ausgeht. Die Tourismusbranche soll sanft ausgebaut werden, wobei Individualtourismus, Exklusivität und Komfort eindeutig der Vorrang vor Massentourismus eingeräumt wird. Offensichtlich rüstet sich die Stadt durch die Förderung neuer Wirtschaftszweige (und mit ihr das ganze Land) für die Zeit nach dem Erdöl. Ohne deutliche Erhöhung der Fördermenge sollten die auf fünf Milliarden Barrel geschätzten Ölvorräte noch bis zum Jahr 2020 reichen. Bis dahin hofft man vom Öl unabhängig geworden zu sein und 80 % des Bruttoinlandsproduktes u. a. über die Bereiche Infrastruktur, Finanzen, Investment und Tourismus zu erwirtschaften. Aber auch in Zukunft wird ein Rohstoff großes Gewicht haben, nämlich die ausgedehnten Erdgas-Vorkommen (mehr als 620 km³, unerschlossene Lagerstätten nicht berücksichtigt), deren Export sich wohl nur über Maskat abwickeln lassen wird. In einer Rangliste der Städte nach ihrer Lebensqualität belegte Maskat im Jahre 2018 den 105. Platz unter 231 untersuchten Städten weltweit. Verkehr Eine Metro für Maskat befindet sich in Planung. Zunächst ist eine Linie vorgesehen, die auch den Flughafen Maskat anbinden soll. Kultur und Sehenswürdigkeiten Von der ehemaligen Stadtbefestigung ist ein Festungsgraben (arabisch al-Husn) erhalten. Weiter sind die vier Stadttore erhalten: al-Bab al-Kabir (das „Große Tor“), Bab al-Matha'ib, al-Bab as-Saghir (das „Kleine Tor“) und Bab al-Waldschat. Darüber hinaus bemüht man sich sehr, alte Kaufmannshäuser zu restaurieren, und es wird viel Geld in die Entwicklung von Museen nach neuesten Gesichtspunkten investiert, die das kulturelle Erbe Omans hüten. Sehenswürdigkeiten sind auch die Große Sultan-Qabus-Moschee, das Royal Opera House Muscat, der Suq von Matrah sowie die Forts von al-Dschalali und al-Mirani, die den Al-Alam-Sultanspalast flankieren. Weiterhin sind das Burdsch as-Sahwa und der Clock Tower Square zu nennen. In der Region Maskat gibt es eine Reihe von Stränden: der Strand von Qurum, Bandar al-Dschissa und Yati. Beliebte öffentliche Grünflächen sind der Qurum-Naturpark, Riyam und Kalbuh. Für Sportveranstaltungen stehen das Sultan-Qabus-Sportzentrum und der Muskat Speedway zur Verfügung. Südöstlich von Maskat reicht das Gebirge bis an den Golf von Oman. In kleinen Buchten befinden sich einige Marinas, von denen Ausflüge zu Delfinbeobachtungstouren angeboten werden. In dieser Region sowie an der vorgelagerten Insel Fahal befinden sich viele Tauchplätze. Das 2003 versenkte Landungsboot Al Munassir ist ein weiterer bekannter Tauchspot in der Region. Jedes Jahr zieht das Kulturfest Muscat Festival zahlreiche Besucher an. Bilder Universitäre Einrichtungen Maskat verfügt als Hauptstadt über eine beachtliche Anzahl an universitären Einrichtungen: das private Al-Zahra College for Women im Madinat al-Ilam das private Caledonian College of Engineering in Madinat South al-Hail das staatliche College of Banking & Financial Studies im Stadtteil Ruwi das private Fire Safety Engineering College am Flughafen Sib die private German University of Technology in Oman (GUtech) bei Halban, westlich von Sib das halbstaatliche International Maritime College Oman in Sib, das jedoch nach Suhar verlegt werden soll das private Majan College im Stadtteil Ruwi das private Mazoon College for Management and Applied Sciences das private Middle East College of Information Technology in der sog. Knowledge Oasis unweit Maskats in der Nähe der Sultan-Qabus-Universität (SQU) das private Muscat College das staatliche Muscat College (The Higher College of Technology) die private Oman Tourism & Hospitality Academy in der Nähe des Flughafens Sib das private Scientific College of Design in Madinat al-Qurm die staatliche Sultan-Qaboos-Universität (SQU) das private Waljat Colleges of Applied Sciences in der sog. Knowledge Oasis unweit Maskats in der Nähe der Sultan-Qabus-Universität (SQU) Sport Das Al Emarat Cricket Stadium in Al Amarat, 20 Kilometer südlich von Muskat, war einer der Austragungsorte des T20 World Cup 2021. Persönlichkeiten Die Liste enthält eine alphabetische Übersicht bedeutender, im heutigen Maskat geborener Persönlichkeiten. Ob die Personen ihren späteren Wirkungskreis in Maskat hatten oder nicht, bleibt unberücksichtigt. Chalifa ibn Harub ibn Thuwaini (1879–1960), Sultan des britischen Protektorats Sansibar von 1911 bis 1960 Taimur ibn Faisal (1886–1965), Sultan von Maskat und Oman von 1913 bis 1932 Said ibn Taimur (1910–1972), Sultan von Maskat und Oman von 1932 bis 1970 Haitham bin Tariq (* 1954), Sultan von Oman seit 2020 Isla Lang Fisher (* 1976), australische Schauspielerin und Autorin Ali al-Habsi (* 1981), omanischer Fußballtorwart Sneha Ullal (* 1987), indische Bollywoodschauspielerin Fatma Al-Nabhani (* 1991), omanische Tennisspielerin Ahmed al-Rawahi (* 1994), omanischer Fußballtorhüter Issam al-Sabhi (* 1997), omanischer Fußballspieler Salaah al-Yahyaei (* 1998), omanischer Fußballspieler Literatur Fred Scholz: Muscat – Sultanat Oman: Geographische Skizze einer einmaligen Stadt. Das Arabische Buch, Berlin 1990 (Band 1: Text, Abbildungen, Fotos; Band 2: Tafeln) Fred Scholz: Muscat – Hauptstadt des Sultanats Oman. In: Günter Meyer (Hrsg.): Die arabische Welt im Spiegel der Kulturgeographie. Veröffentlichungen des Zentrums für Forschung zur arabischen Welt (ZEFAW) Band 1, Mainz 2004, S. 70–79. Michael Teupel: Oman – Muscat. Books on Demand, Norderstedt 2007, ISBN 978-3-8334-7948-9. Michael Teupel: Oman – Das Sultanat. Reiseliteratur-Verlag, Hamburg 2006, ISBN=3-937274-26-X. Weblinks Offizielle Seite von Maskat (arabisch, englisch) Einzelnachweise Hauptstadt in Asien Ort in Oman Ort mit Seehafen
Q3826
302.165956
34742
https://de.wikipedia.org/wiki/Isomorphismus
Isomorphismus
In der Mathematik ist ein Isomorphismus (von altgriechisch (ísos) – „gleich“ und μορφή (morphḗ) – „Form“, „Gestalt“) eine Abbildung zwischen zwei mathematischen Strukturen, durch die Teile einer Struktur auf bedeutungsgleiche Teile einer anderen Struktur umkehrbar eindeutig (bijektiv) abgebildet werden. Definition Universelle Algebra In der universellen Algebra heißt eine Funktion zwischen zwei algebraischen Strukturen (zum Beispiel Gruppen, Ringen, Körpern oder Vektorräumen) ein Isomorphismus, wenn: bijektiv ist, ein Homomorphismus ist. Gibt es einen Isomorphismus zwischen zwei algebraischen Strukturen, dann heißen die beiden Strukturen zueinander isomorph. Isomorphe Strukturen sind in gewisser Weise „das gleiche“, nämlich dann, wenn man von der Darstellung der Elemente der zugrundeliegenden Mengen und den Namen der Relationen und Verknüpfungen absieht. Die Aussage „ und sind isomorph“ wird üblicherweise durch oder durch notiert. Ist ein bijektiver Homomorphismus zwischen zwei algebraischen Strukturen, dann ist immer auch ein bijektiver Homomorphismus. Relationale Strukturen Es seien und zwei relationale Strukturen vom gleichen Typ sodass für jedes die Stelligkeit der Relationen und bezeichnet. Eine Bijektion heißt Isomorphismus, wenn sie für jedes und für alle die folgende Verträglichkeitseigenschaft besitzt: Im Gegensatz zu algebraischen Strukturen ist nicht jeder bijektive Homomorphismus zwischen relationalen Strukturen ein Isomorphismus. Ein Beispiel für Isomorphismen zwischen relationalen Strukturen sind Isomorphismen zwischen Graphen. Kategorientheorie In der Kategorientheorie definiert man einen Isomorphismus allgemein als einen Morphismus der ein beidseitiges Inverses besitzt: und Die oben definierten Isomorphismen zwischen algebraischen Strukturen sowie zwischen relationalen Strukturen sind Spezialfälle dieser Definition. Weitere Spezialfälle dieses Isomorphiebegriffes sind beispielsweise Homöomorphismen als Isomorphismen in der Kategorie der topologischen Räume und stetige Abbildungen oder Homotopieäquivalenzen als Isomorphismen in der Kategorie der topologischen Räume mit den Homotopieklassen von Abbildungen als Morphismen. Bedeutung In der Kategorientheorie ist von entscheidender Bedeutung, dass die Eigenschaft Isomorphismus unter jedem Funktor erhalten bleibt, d. h. ist ein Isomorphismus in einer Kategorie und ein Funktor, dann ist ebenfalls ein Isomorphismus in der Kategorie . In der algebraischen Topologie wird diese Eigenschaft häufig festgestellt, um Räume in Relation bringen zu können: Sind beispielsweise zwei Räume homöomorph, so sind ihre Fundamentalgruppen isomorph. Beispiele Sind und Mengen mit einer binären Verknüpfung, dann ist eine Bijektion mit für alle ein Isomorphismus von nach . So ist etwa der Logarithmus ein Isomorphismus von nach , da . Eine binäre Verknüpfung ist eine dreistellige Relation. Aber auch zu zweistelligen Relationen lassen sich Homo- und Isomorphismen definieren (s. u. #Ordnungsisomorphismus). Bei manchen Isomorphismen impliziert die Homomorphie der Funktion auch die der Umkehrfunktion; bei den anderen muss man sie extra nachweisen. Gruppenisomorphismus Sind die Strukturen Gruppen, dann heißt ein solcher Isomorphismus Gruppenisomorphismus. Meist meint man mit Isomorphismen solche zwischen algebraischen Strukturen wie Gruppen, Ringen, Körpern oder Vektorräumen. Isometrischer Isomorphismus Sind und metrische Räume und ist eine Bijektion von nach mit der Eigenschaft für alle , dann nennt man einen isometrischen Isomorphismus. In den bisherigen Beispielen sind Isomorphismen genau die homomorphen Bijektionen – die Umkehrabbildung ist automatisch homomorph. In den folgenden Beispielen muss zusätzlich gefordert werden, dass auch die Umkehrabbildung homomorph ist. In der Funktionalanalysis nennt man eine Abbildung zwischen normierten Räumen einen Isomorphismus, wenn sie folgende Eigenschaften hat: ist linear ist stetig Die Umkehrfunktion ist auch stetig Falls zusätzlich für alle gilt , so nennt man einen isometrischen Isomorphismus. Ordnungsisomorphismus Sind und geordnete Mengen, dann ist ein (Ordnungs-)Isomorphismus von nach eine ordnungserhaltende Bijektion, deren Umkehrfunktion ebenfalls ordnungserhaltend ist. Ordnungserhaltende Bijektionen zwischen totalgeordneten Mengen sind automatisch Isomorphismen; für Halbordnungen gilt dies nicht: ist offenkundig eine ordnungserhaltende Bijektion von mit der Teilerrelation nach mit der gewöhnlichen Ordnung, aber nicht in der Gegenrichtung. Ordnungsisomorphismen spielen in der Theorie der Ordinalzahlen eine wichtige Rolle. Man sagt auch, und seien ordnungsisomorph oder vom selben Ordnungstyp. Der Ordnungstyp der natürlichen Zahlen wird mit und der der rationalen Zahlen mit bezeichnet. Der Ordnungstyp der rationalen Zahlen im offenen Intervall ist ebenfalls Beide sind dicht in ihrer jeweiligen Vervollständigung. Die Ordnungstypen der reellen Zahlen und des Intervalls sind ebenfalls gleich, aber verschieden von da es keine Bijektion zwischen und gibt. Siehe auch Isomorphiesatz Automorphismus Morphismus Literatur Klaus Jänich: Topologie. 8. Auflage, 1. korrigierter Nachdruck. Springer, Berlin u. a. 2006, ISBN 3-540-21393-7. Weblinks Algebra Morphismus Universelle Algebra Funktionalanalysis
Q189112
91.312066
3596552
https://de.wikipedia.org/wiki/Ph%C3%A4nomen
Phänomen
Ein Phänomen (bildungssprachlich auch Phänomenon, Plural Phänomene oder Phänomena; von ) ist in der Erkenntnistheorie eine mit den Sinnen wahrnehmbare, abgrenzbare Einheit des Erlebens, beispielsweise ein Ereignis, ein Gegenstand oder eine Naturerscheinung. Davon abweichend wird mitunter nicht das Wahrgenommene, sondern eine Wahrnehmung selbst als Phänomen bezeichnet. Das entsprechende deutsche Wort lautet Erscheinung. Im allgemeinen Sprachgebrauch werden vor allem Ausnahmeerscheinungen als Phänomene bezeichnet. Begriffsgeschichte Der Begriff wurde für jegliche Art einer Erscheinung, ursprünglich nur für Lufterscheinungen gebraucht, dann aber von Vertretern des Skeptizismus auf die Metaphysik übertragen und dort gebraucht für das, was den Sinnen erscheint, im Unterschied zu dem Begriff und dem eigentlichen Gegenstand. Ideengeschichte Immanuel Kant Immanuel Kant stellt Phänomen und Ding an sich gegenüber. Während das Ding an sich der Erfahrung und der Erkenntnis unzugänglich ist, affiziert es doch die Sinnlichkeit, aus den so gewonnenen Empfindungen konstruiert das Bewusstsein die Phänomenona als Repräsentationen. Das Ding an sich ist nur indirekt, durch sie, Gegenstand der Erkenntnis, es ist uns nur als Noumenon, als gedanklich angenommene Ursache unserer Empfindungen, bewusst. Da auch das Subjekt für sich selbst ein Noumenon darstellt, sind für Kants Philosophie die Phänomene real. Den Teil der Naturtheorie, welcher die Bewegung oder Ruhe der Materie bloß als solche Erscheinung der äußeren Sinne bestimmt, nennt Kant Phänomenologie. Georg Wilhelm Friedrich Hegel Auch Hegel nimmt in ähnlichem Sinne diesen Ausdruck auf, wenn er die Darstellung der Erscheinungsweisen des Geistes in seiner stufenweisen Heranbildung zum in sich vollendeten Wesen eine Phänomenologie des Geistes nennt. Edmund Husserl Edmund Husserl entwickelt eine Phänomenologie, die zwar zunächst davon ausgeht, dass das Phänomen bloß Zugang zu den Sachen selber ist, allerdings eine starke transzendentale Wende nimmt und die Erscheinung selbst sowie ihre allgemeinen Erkenntnisbedingungen zum Gegenstand nimmt. Weblinks Erkenntnistheorie Kantianismus Phänomenologie Hegelianismus Deutscher Idealismus Beobachtung
Q483247
272.835694
78724
https://de.wikipedia.org/wiki/Samenanlage
Samenanlage
Die Samenanlage (Ovulum) ist das weibliche Fortpflanzungsorgan der Samenpflanzen. Sie befindet sich bei den Bedecktsamern im Fruchtknoten, bei den Nacktsamern auf der Samenschuppe. Aus ihr entwickelt sich nach der Befruchtung der Same. Forschungsgeschichte Die Samenanlage wurde erstmals von Nehemiah Grew (1671) beschrieben. Grew entdeckte ein kleines Loch in der Hülle der Samenanlage, das ihn an das Spundloch von Bier- und Weinfässern erinnerte. Er nahm an, dass es ebenso dem Hindurchtreten von Luft bei einer Gärung diene. Erst 1806 schrieb Pierre Jean François Turpin dieser „Mikropyle“ korrekterweise eine Funktion bei der Befruchtung zu. Das Innere der Samenanlage erschien lange Zeit als ein homogenes Gewebe, das von einer oder mehreren Hüllen umgeben ist. 1888 beschrieb Eduard Strasburger als Erster die Reduktion der Chromosomenzahl (Meiose) bei Zellen in der Samenanlage. Stellung im Fruchtknoten Je nach ihrer Orientierung im Fruchtknoten unterscheidet man bei Bedecktsamern aufrechte, hängende und waagrechte Samenanlagen. Mittelstellungen zwischen aufrecht und horizontal werden als aufsteigend, zwischen horizontal und hängend als absteigend bezeichnet. Aufbau Die Samenanlagen liegen bei den Nacktsamern frei; bei den Bedecktsamern sind sie im Fruchtknoten eingeschlossen. Mit dem Stiel (Funiculus) ist die Samenanlage an der Plazenta am Fruchtblatt befestigt. Sie besitzt meist ein oder zwei (selten drei) Hüllen, die Integumente. Je nach der Anzahl der Hüllen spricht man von unitegmischen, bitegmischen oder tritegmischen Samenanlagen. Nacktsamer besitzen grundsätzlich nur ein Integument, die meisten Bedecktsamer zwei. Die Integumente umschließen das eigentliche Megasporangium, den Nucellus. Ontogenetisch wird zuerst der Nucellus gebildet. Anschließend wachsen von unten die Integumente am Nucellus empor. Bei bitegmischen Arten entsteht das innere vor dem äußeren. Bei den Bedecktsamern, die primär bitegmisch sind, kann die seltenere Form einer unitegmischen Samenanlage auf mehreren Wegen entstehen: Eines der beiden Integumente stellt frühzeitig das Wachstum ein. Es wächst die Basis der Integumente durch interkalares Wachstum hoch, sodass nur mehr die Spitze aus zwei Integumenten besteht, dies aber nicht mehr deutlich ersichtlich ist. Es bildet sich von Anfang an nur ein Integument. Bei einigen parasitischen Pflanzen fehlen die Integumente ganz, etwa bei den Loranthaceae. Die Stelle, an welcher die Samenanlage mit dem Funiculus in Verbindung steht, heißt (äußerer) Nabel oder Hilum. Die Übergangszone zwischen Funiculus und Nucellus heißt Chalaza. An der der Chalaza gegenüberliegenden Seite, wo die Integumente aneinanderstoßen, lassen sie eine Öffnung frei, die Mikropyle. Die oft langgestreckte Verwachsungsstelle von Samenanlage und Funiculus wird Raphe genannt (griechisch endbetont ραφή ‚Naht‘) und ist bei Samen aus gegenläufigen Samenanlagen auffallend, sie kann dorsal oder ventral ansetzen. Wucherungen (Elaiosome, Arillode) der Raphe werden als Strophiole (Keimwarze), Auswüchse der Samenschale an der Mikropyle als Caruncula bezeichnet, beide gewöhnlich ebenfalls als „Samenschwiele“. Als Obturator bezeichnet man eine Struktur, die den Eintritt des Pollenschlauchs in die Eizelle erleichtert. Morphologisch entsteht er meist in der Plazenta oder dem Funiculus und wächst zur Mikropyle. Ausbildung des Nucellus Je nach der Lage der Megasporenmutterzelle werden folgende Formen von Samenanlagen unterschieden: crassinucellat: Hier ist der Nucellus kräftig entwickelt. Die Megasporenmutterzelle ist durch mindestens eine Zelle, die Parietal- oder Deckzelle, von der Epidermis getrennt. Die Menge des seitlich und apikal gelegenen Gewebes ist sehr unterschiedlich. Nach einer anderen Definition ist es eine Samenanlage, bei der die Archesporzelle eine primäre Wandzelle, die parietale Zelle, bildet. Dadurch liegt die Megasporenmutterzelle nicht subepidermal. tenuinucellat: Der Nucellus ist sehr schwach ausgeprägt und zur Zeit der Befruchtung meist geschwunden. Die Megasporenmutterzelle liegt am apikalen Pol des Nucellus subepidermal. Der Embryosack liegt dann apikal und ist nur von der Epidermis des Nucellus umschlossen. pseudocrassinucellat: Hier gibt die Megasporenmutterzelle keine parietale Zelle ab. Die apikale Zelle der Epidermis teilt sich periklin, wodurch eine Nucellarkappe entsteht. Bei Samenpflanzen, die durch Spermatozoiden befruchtet werden (Cycadophyta, Ginkgophyta), befindet sich am apikalen Ende des Nucellus eine Vertiefung, die „Pollenkammer“ heißt. Orientierung der Samenanlage Nach der Orientierung der Längsachse werden die Samenanlagen folgendermaßen eingeteilt: Bei atropen oder orthotropen Samenanlagen befinden sich Funiculus und Mikropyle auf einer Geraden, der Nucellus ist nicht gekrümmt. Bei anatropen Samenanlagen ist der Bereich von Chalaza, Integumenten und Nucellus um 180° gekrümmt, gegenläufig und die Mikropyle kommt neben dem Funiculus zu liegen. Der Nucellus selbst ist gerade. K(C)ampylo-, k(c)amptotrope Samenanlagen (nach der Vaskulatur; ana- oder ortho-) nehmen eine Zwischenstellung ein, hier ist der Nucellus deutlich gekrümmt, krummläufig. Die Mikropyle liegt neben dem Funiculus. In einigen Fällen ist die Krümmung nicht so groß das die Mikropyle neben den Funiculus zu liegen kommt, dies bezeichnet man als semikampylotrop. Bei amphitropen Samenanlagen (nach der Vaskulatur; ana- oder ortho-) erfasst die Krümmung auch den Embryosack. Hemitrop, hemi-, semianatrop; wenn die Nucellusachse gerade und gegen den Funiculus um 90° gedreht ist, halbumgewendet. Circinotrop (nach der Vaskulatur; ana- oder ortho-); dabei ist der Funiculus spiralig um die Samenanlage gewickelt und täuscht ein drittes Integument vor, das gar nicht existiert. Hypertrop; hier sind die hemitropen Samenanlagen umgewendet und stehen gegen den Funiculus um 90° gedreht. Heterotrop; wenn die Ovula sehr zahlreich sind, geschieht es nicht selten, dass ihre Lage variabel ist. Bei gegen- und krummläufigen Samenanlagen wird weiter unterschieden, ob die Mikropyle zum Grund; apo-, hypotrop, der Spitze; epitrop oder den Flanken; pleurotrop zugekehrt ist. Moderner wird die verschiedene Orientierungen der gebogenen Ovula in Bezug auf die Karpellkrümmung unterschieden; syntropisch (in der gleichen Richtung) und antitropisch (in der entgegengesetzten Richtung). Bei den Bedecktsamern gelten anatrope, crassinucellate Samenanlagen mit zwei Integumenten als ursprünglich. Meiose Im Nucellus entsteht am apikalen Pol eine Megasporenmutterzelle, die hier Embryosackmutterzelle heißt. Durch Meiose entstehen aus dieser diploiden Zelle vier haploide Zellen, die Megasporen, von denen meistens nur eine als Embryosackzelle sich weiterentwickelt, während die übrigen zugrunde gehen. Meist sind sie linear angeordnet, seltener T-förmig. Die Megasporen der Nacktsamer besitzen eine Zellwand mit Sporopollenin, nicht jedoch die der Bedecktsamer. Gametophyt Der weibliche Gametophyt wird bei den Samenpflanzen Embryosack genannt. An seiner Bildung ist meist nur eine Megaspore beteiligt. Man spricht dann von einem monosporen Embryosack. Hier entwickelt sich meist die zuinnerst liegende Megaspore, seltener die äußere. Selten sind zwei Zellen (bisporer Embryosack), wie bei einigen Bedecktsamern, oder auch alle vier (tetrasporer Embryosack) beteiligt, so bei Gnetum, Welwitschia und einigen Bedecktsamern. Bei den Nacktsamern ist der Gametophyt recht deutlich ausgebildet und ähnelt dem Prothallium der Farne. Bei allen Gruppen mit Ausnahme von Gnetum, Welwitschia und den Bedecktsamern bildet der Embryosack am apikalen Pol Archegonien, die weiblichen Fortpflanzungsorgane. Ginkgo bildet zwei oder drei Archegonien pro Samenanlage, Koniferen bis zu 60 und Microcycas calocoma bis zu 100. Ein Archegonium besteht aus einer Eizelle, die bis zu sechs Millimeter groß sein kann (Cycadopsida) und aus einer unterschiedlich großen Zahl von Halswandzellen. Halskanalzellen fehlen immer, manchmal ist eine Bauchkanalzelle oder zumindest ein Bauchkanalkern ausgebildet. Bei den Bedecktsamern ist der Gametophyt zu einem meist achtkernigen Embryosack reduziert. Bedecktsamer Bei den Bedecktsamern teilt sich der Kern der Megaspore in den meisten Fällen in drei freien Kernteilungen in zwei, vier und endlich acht Zellkerne. Je drei dieser Kerne wandern zum oberen beziehungsweise unteren Ende des Embryosackes. Dort umgeben sie sich mit eigenem Plasma, dann eigener Zellmembran und schließlich einer dünnen Zellwand. Die drei oberen Zellen bilden den Eiapparat. Die mittlere der drei ist die deutlich größere Eizelle (Gynogamet, Oosphere), die anderen die beiden Synergiden (Hilfszellen). Möglicherweise sind die beiden Synergiden den Halskanalzellen eines Archegoniums homolog. Die drei unteren Zellen sind die „Antipoden“. Die zwei mittleren Zellkerne grenzen sich nicht vom Embryosackplasma ab und werden „Polkerne“ genannt. Sie verschmelzen zum sekundären Embryosackkern, der damit diploid ist. Dies geschieht vor oder nach dem Eindringen des Pollenschlauchs. Von diesem Entwicklungstypus gibt es zahlreiche Abweichungen, je nachdem, ob ein, zwei oder alle vier Megasporen am Aufbau des Embryosacks beteiligt sind, sowie auch, wie der Embryosack weiter aufgebaut ist. Diese Typen werden nach der Gattung, bei der sie erstmals beschrieben wurden, bezeichnet. Siehe auch Doppelte Befruchtung Generationswechsel Literatur Weblinks Rasterelektronenmikroskopische Aufnahmen der Samenanlagen von Epiphyllum phyllanthus auf biologie.uni-hamburg.de. Einzelnachweise Blüte
Q380138
159.972578
3731
https://de.wikipedia.org/wiki/Oslo
Oslo
Oslo (deutsch [], norwegisch , [] oder []) ist die Hauptstadt sowie das wirtschaftliche und politische Zentrum des Königreichs Norwegen. Sie trug in der Vergangenheit auch den Namen Christiania (1624 bis 1924) bzw. Kristiania (alternative Schreibweise von 1877/1897 bis 1924). Die Kommune Oslo hat Einwohner (Stand: ). Sie bildet eine eigenständige Provinz (Fylke) und ist zudem Verwaltungssitz für die benachbarte Provinz Viken. Das Stadtgebiet Oslos, also der Tettsted Oslo, erstreckt sich über mehrere Kommunen und hat Einwohner (Stand: ). Damit ist Oslo die mit Abstand größte Stadt des Landes. In der Groß-Oslo-Region leben mehr als 1,5 Millionen Menschen, also etwa 28 Prozent der gesamten Bevölkerung Norwegens von rund 5,3 Millionen. Ortsname Beide o werden – wie in den meisten Wörtern – im Norwegischen wie deutsch u ausgesprochen, also [] oder []. Herkunft Oslo findet ab dem Jahr 1225 in schriftlichen Quellen Erwähnung in der Form Ósló. In alten westnorwegischen Quellen existiert die Form Ásló. Im 14. Jahrhundert kam der latinisierte Name Anslo(a) und der mittelniederdeutsche Name Anslo hinzu. Zum Ursprung des Namens von Oslo, der sich aus zwei Teilen zusammensetzt, gibt es mehrere Theorien. Die erste Silbe des Namens ist Ós- bzw. Ás- und die zweite Silbe ist -lo. Die Nachsilbe -lo bedeutet den meisten Theorien zufolge „Wiese an einem Gewässer“. Umstrittener ist die Herkunft der ersten Silbe. Lange Zeit galt das altnordische Wort óss (deutsch Flussmündung) als Ursprung für den Namen der Stadt. Diese Theorie wurde durch den Geistlichen Peder Claussøn Friis (1545–1614) in seiner 1613 fertiggestellten Veröffentlichung Norrigis Bescrifuelse geprägt. Seine Theorie ist weiterhin verbreitet, auch wenn sie mittlerweile weitgehend abgelehnt wird. Friis sah die Mündung der Alna, die laut seiner Theorie früher Loelva oder Loen geheißen habe, als namensgebend an. Ein Grund für die heutige Ablehnung ist, dass die frühere Form Anslo eine nasale Aussprache nahelegt, die es weder im altnordischen Wort óss noch in der urnordischen Vorform *ōsa- gab. Zudem gebe es sowohl den Namen Oslo als auch den Namen Alna bereits länger, als die Bezeichnung Loen oder Loelva. Statt der Bedeutung „Flussmündung“ gilt für die erste Silbe der Ursprung in *ansu- oder in *ansa- als wahrscheinlicher. Im Falle von *ansu- (im Altnordischen áss oder óss) würde sich der Ortsname auf heidnische Götter beziehen, im Falle von *ansa- (im Altnordischen áss) auf „Hügel“ oder „länglicher Grat“. Gegen den Ursprung in *ansa- spricht, dass diese Form im Altnordischen im Gegensatz zu *ansu- nie als óss vorlag. Auch ist der in diesem Fall wahrscheinlich namensgebende Ekeberg, der im Altnordischen Eikaberg hieß, geografisch eher als Berg als als Hügel zu sehen. Frühere und weitere Namen der Stadt Nach einem großen Stadtbrand 1624 wurde die Stadt unter dem König Christian IV. von Dänemark und Norwegen etwa einen Kilometer nordwestwärts verlegt und in Christiania umbenannt. 1877 änderte sich unter dem schwedisch-norwegischen König Oskar II. die offizielle Schreibweise in der Matrikel und im Staatskalender in Kristiania, während die Stadtverwaltung bis 1897 die ursprüngliche Schreibweise beibehielt. Erst 1924, zwanzig Jahre, nachdem Norwegen seine Eigenständigkeit errungen hatte, wurde beschlossen, der Stadt nach rund 300 Jahren zum 1. Januar 1925 wieder den ursprünglichen Namen Oslo zu geben. Das monumentale Rathaus von Oslo, dessen Bau 35 Jahre von 1915 (erster Architektenwettbewerb) bis 1950 dauerte, kann als Symbolbauwerk der neu gewonnenen Unabhängigkeit gelten. Oslo wurde auch nach einem Gedicht von Bjørnstjerne Bjørnson („Sidste Sang“, 1870) auch als Tigerstaden (Tigerstadt) bezeichnet, da er sie als gefährliche und unbarmherzige Stadt sieht. Vor dem Rathaus und vor dem Bahnhof erinnern Tigerskulpturen an diesen Namen, der seinen negativen Klang inzwischen verloren hat. Auch Knut Hamsun stellt die Stadt im Roman Hunger von 1890, norwegisch und dänisch „Sult“, nach seinen Empfindungen äußerst negativ dar. Geschichte Prähistorische Spuren finden sich in den Felsritzungen am Ekeberg. In der Heimskringla, einer Geschichte der norwegischen Könige, behauptet der isländische Gelehrte Snorri Sturluson, dass Oslo von König Harald III. gegründet worden sei. Der Historiker Peter Andreas Munch datierte die Gründung auf 1048. Ausgrabungen der jüngeren Zeit haben indes christliche Gräber aus der Zeit um 1000 zum Vorschein gebracht. Aus diesem Grund beging die Stadt im Jahr 2000 ihr tausendjähriges Jubiläum, während 1950 erst der 900. Geburtstag begangen worden war. Oslo im Mittelalter Oslo war lange Marktplatz für die reichen Bauerndörfer aus dem bei Oslo gelegenen Tal Groruddalen. Unter Olav Kyrre wurde Oslo Bischofssitz und religiöses Zentrum für die Region Østlandet. Die mittelalterliche Stadt hatte zwei Burgen, den Königshof und die Bischofsburg. Innerhalb der Stadtmauern gab es neun Kirchen, darunter die St. Clemens und die Hallvardskathedrale, ein Hospital und etwa 400 Stadthäuser von Kaufleuten und Handwerkern. Die Wohnhäuser bestanden aus Holz. Unter König Håkon V. (1299–1319) erreichte das mittelalterliche Oslo seinen Höhepunkt. Da er der erste König war, der dauerhaft in Oslo residierte, wird Oslo ab 1299 als Hauptstadt gerechnet. Oslo verfügte zu dieser Zeit aber über kaum für eine Hauptstadt typische Institutionen. König Håkon V. veranlasste in seiner Zeit den Bau der Festung Akershus. Im Spätmittelalter entwickelte sich Oslo zu einer wichtigen Kaufmanns- und Residenzstadt und es ließen sich hanseatische Kaufmänner aus Rostock nieder. Die Einwohnerzahl soll in dieser Zeit zwischen 3000 und 4000 Personen erreicht haben. Im Jahr 1308 wurde Oslo von Herzog Erik av Södermanland geplündert. Die Festung Akershus hingegen überstand die Belagerung. Im Jahr 1349 erreichte der Schwarze Tod Oslo und führte dazu, dass etwa drei Viertel der Einwohner starben. Die Stadt, die mit ihren vielen Holzhäusern und engen Gassen stark brandgefährdet war, wurde wiederholt von Stadtbränden heimgesucht, jedoch immer wieder aufgebaut. Nach der Reformation verfielen das Kloster und die meisten der zahlreichen Kirchen. Nach den Bränden wurden diese Gebäude abgetragen und die Steine für andere Bauzwecke verwendet. Im Jahr 1567 brannte die Bevölkerung auf Anordnung die Stadt selbst ab, damit sie den Schweden nicht mehr als Unterschlupf dienen konnte. Neuaufbau nach dem Stadtbrand von 1624 Nach dem großen Brand von 1624, der drei Tage andauerte, wurde das alte Oslo nicht wieder aufgebaut. Auf Befehl des dänischen Königs Christian IV. – Norwegen war zu dieser Zeit Provinz Dänemarks – wurde die Stadt stattdessen auf die andere Seite der Bucht Bjørvika zur Festung Akershus verlegt. Zugleich erhielt die Stadt nach König Christian IV. den Namen Christiania. In der Bevölkerung stieß die aufgezwungene Umsiedlung auf Widerstand, unter anderem da beim Stadtbrand teilweise noch Keller und Fundamente erhalten geblieben waren. Das neu aufgebaute Christiania begann nur langsam anzuwachsen. Die neu erbaute Stadt wurde nach dem Idealbild der Renaissance mit rechteckigen Quartieren und breiten Straßen errichtet und erhielt eine Festungsanlage mit Bastionen. Die Häuser baute man nun in Stein oder aus gemauertem Fachwerk, um das Ausbreiten von Bränden zu verhindern. Das alte Oslo lag nun außerhalb der Stadtmauern von Christiania. Trotz königlichen Verbots wurde es wieder besiedelt, hauptsächlich von Armen und Landlosen, die sich das teure Leben im modernen Christiania nicht leisten konnten. In den 1660er-Jahren wurde die Verwaltungsgliederung Norwegens einer größeren Reform unterzogen und Christiania Teil des Akershus Stiftsamt. Von Ulrich Friedrich Gyldenløve, dem dänischen Statthalter in Norwegen, und dem Generalleutnant Jørgen Bjelke wurde Christiania im Jahr 1670 als wichtigste Stadt Norwegens beschrieben. Grund für diese Position war die Funktion der Stadt als Verwaltungszentrum und die Festung Akershus, die Christiania militärische Bedeutung verschaffte. In der Stadt lebten viele Angehörige des Militärs. Im Jahr 1769 wurde bei der ersten Volkszählung in der Stadt ein Wert von 7469 Einwohnern ermittelt. Ausbau der neuen Hauptstadt ab 1814 Im Jahr 1814 wurde Christiania nach der Schließung des Kieler Friedens und dem damit einhergehenden dänischen Verzicht auf Norwegen die neue Hauptstadt des nun nahezu selbstständigen Landes, das sich nun in einer Union mit Schweden befand. Den Status als Hauptstadt erhielt Christiania lediglich de facto, eine gesetzlich offizielle Hauptstadt gab es nicht. Im Jahr 1814 hatte die Stadt unter 15.000 Einwohner und war hinter Bergen die zweitgrößte Stadt Norwegens. Als Hauptstadt war Christiania vergleichsweise klein, Kopenhagen hatte etwa zum gleichen Zeitpunkt rund 100.000 Einwohner. Zudem hatte Christiania neben dem Dom und der Festung Akershus zunächst kaum Monumentalbauten. Aufgrund des neuen Status als Hauptstadt wurde begonnen, neue Verwaltungs- und Monumentalbauten zu erbauen. Errichtet wurden unter anderem das Königliche Schloss, verschiedene Regierungsbauten und Gerichte. Die Universität Oslo war bereits kurz zuvor im Jahr 1811 gegründet worden und sie blieb bis 1946 die einzige Universität Norwegens. Christiania entwickelte sich im 19. Jahrhundert nicht nur zum politischen und kulturellen Zentrum des Landes, sondern auch die Industrielle Revolution in Norwegen nahm ihren Ursprung in der Stadt. Industrielles Zentrum der Stadt war vor allem das Gebiet entlang des Flusses Akerselva. Dort siedelten sich unter anderem Textil- und Tabakfabriken, Brauereien und Gießereien an. Die Schiffswerften der Stadt entwickelten sich zu den bedeutendsten des Landes. Der Ausbau des Verkehrs- und Kommunikationsnetzwerkes des Landes wurde in dieser Zeit mit Christiania im Mittelpunkt vorgenommen. Diese Zentralisierung stieß allerdings zunehmend auf Widerstand im Rest des Landes. Im Jahr 1842 wurde Christiania aus Akershus herausgenommen und ein eigenes Fylke. Aufgrund der ansteigenden Einwohnerzahlen kam es im 19. Jahrhundert wiederholt zu Eingemeindungen. So wurde von der Kommune Aker zunächst im Jahr 1859 ein Gebiet mit 9551 Einwohnern an Christiania überführt. Das eingegliederte Areal galt als Armenviertel und die Kommune Aker hatte zuvor aktiv versucht, die Fürsorgeverantwortung für die dort ansässigen, größtenteils in Christiania arbeitenden Einwohner an die Nachbarkommune zu überführen. Von Seiten der Kommune Christiania wurde die Eingliederung zunächst lange hinausgezögert. Zu den armen Vorstädten in Aker zählte unter anderem Grønland. Im Jahr 1878 wurde ein weiteres Gebiet – dieses Mal mit 18.970 Einwohnern – von Aker an Christiania überführt. Zuvor hatte sich in Aker zwischen 1859 und 1878 die Einwohnerzahl fast verzehnfacht und war von 2540 auf 24.980 angestiegen. Die zunehmende Industrialisierung hatte auch Aker zu wirtschaftlichen Aufschwung verholfen. Vor der Grenzjustierung im Jahr 1879 bestand im Gegensatz zur Eingemeindung aus dem Jahr 1859 deshalb auch Uneinigkeit darüber, wie viel Land Christiania eingemeinden durfte. Es gingen schließlich unter anderem Frogner und Vålerenga an Christiania über. Ab den 1870er-Jahren wurde schrittweise für die Stadt die neue Schreibweise Kristiania eingeführt. Im Jahr 1925 nahm die Stadt wieder den Namen Oslo an. Oslo nach dem Zweiten Weltkrieg Im Jahr 1948 erfolgte die Zusammenlegung der Kommune Oslo mit der 1837 im Rahmen der Einführung der lokalen Selbstverwaltung gegründeten Kommune Aker. Aker brachte 130.976 Einwohner zu den 286.222 Einwohnern von Oslo mit. Vor der Zusammenlegung war Aker nach Oslo die Kommune mit den zweitmeisten Einwohnern des Landes. In den 1950er- und 1960er-Jahren begannen im Osten von Oslo die ersten Satellitenstädte zu entstehen. Diese waren jedoch oft lange unzureichend angeschlossen. Ab den 1960er- und 1970er-Jahren wurden dort verstärkt Hochhäuser errichtet und es entstanden Wohnblocks mit etwa 250 Wohnungen pro Gebäude. Nach zunehmender Kritik endete in den 1970er-Jahren dieser Trend. In den 1990er-Jahren wurde damit begonnen, zentrale Stadtteile zu sanieren und zu verdichten. Im Jahr 2008 verabschiedete der Stadtrat das Fjordbyen-Projekt (deutsch die Fjordstadt) und beschloss damit großflächige Umbaumaßnahmen rund um das Osloer Hafen- und Fjordgebiet. Auf dem alten Hafengebiet wurde unter anderem das neue Viertel Bjørvika mit repräsentativen Bauwerken wie dem Opernhaus Oslo und dem Munch-Museum entwickelt. Anfang der 1990er Jahre fanden die ersten geheimen Verhandlungen der Streitparteien PLO und Israel unter norwegischer Vermittlung in Oslo statt. Die Reihe an Abkommen wird auch als Oslo-Friedensprozess bezeichnet. Am 22. Juli 2011 tötete der Attentäter Anders Behring Breivik bei einem Bombenanschlag im Regierungsviertel in Oslo acht Menschen. Dabei handelte es sich um den ersten von zwei Anschlägen. Nach dem Bombenattentat erschoss Breivik auf der Insel Utøya außerhalb von Oslo weitere 69 Menschen. Bei einem Anschlag am 25. Juni 2022, bei dem von einem islamistischen und homophoben Motiv ausgegangen wird, wurden zwei Menschen getötet. Geografie Ausdehnung Die Kommune Oslo liegt am inneren Oslofjord. Auf dem Land ist die Kommune vom Fylke Viken umgeben. Die Kommune Oslo, die selbst ebenfalls ein eigenes Fylke bildet, ist das flächenmäßig kleinste Fylke Norwegens. Das Gemeindegebiet grenzt an die Kommune Bærum im Westen, Ringerike im Nordwesten, Lunner im Norden, Nittedal, Lillestrøm und Lørenskog im Osten, Enebakk im Südosten sowie Nordre Follo im Süden. Im Südwesten verläuft zudem im Fjord eine Grenze zur auf der anderen Fjordseite gelegenen Kommune Nesodden. Das Stadtgebiet Oslos reicht weit über die Gemeindegrenzen hinaus und erstreckt sich weitgehend entlang des Oslofjords. Das Stadtzentrum liegt in der Kommune Oslo an den beiden Buchten Pipervika und Bjørvika. Das vom Statistikamt Statistisk sentralbyrå (SSB) als Tettsted Oslo gewertete Gebiet umfasst Teile der Kommunen Oslo, Bærum, Asker, Lillestrøm, Lørenskog, Nordre Follo, Rælingen, Nittedal und Lier. In der Kommune Oslo werden der insgesamt km² zum Tettsted Oslo gerechnet. Neben dem Osloer Stadtgebiet liegt mit Movatn ein zweiter Tettsted, also eine weitere Ansiedlung, die für statistische Zwecke als eine Ortschaft gewertet wird, in der Kommune Oslo. Dort leben Einwohner (Stand: ). Topografie Die Akerselva entspringt dem nördlich des Stadtgebiets gelegenen See Maridalsvannet, durchfließt die Stadt von Norden nach Süden und mündet in den Oslofjord. Ebenfalls in den Oslofjord fließt weiter westlich die Alna. Der Fluss Lysakerelva bildet im Westen die Grenze zur Kommune Bærum. Im Südosten liegt der See Østensjøvannet. Das vor allem fjordnah und tiefer gelegene Stadtgebiet wird vom Waldgebiet Oslomarka umschlossen. Zur Oslomarka gehören unter anderem die Teilgebiete Nordmarka und die Lillomarka. Im nördlichen Gemeindeareal liegen mehrere Seen. Zu diesen gehört unter anderem der Bjørnsjøen. Die Erhebung Kjerkeberget auf der Nordgrenze stellt mit einer Höhe von den höchsten Punkt der Kommune Oslo dar. Oslo ist das Fylke mit dem am Abstand höchsten Anteil an bebauter Fläche. In der Flächenstatistik des Jahres 2021 waren 27,5 % des Areals bebaut. Der Landesdurchschnitt betrug 1,7 %. Zugleich war Oslo auch das Fylke mit dem höchsten Waldanteil. Dieser lag 2021 bei 61,5 % und damit deutlich über dem Landesschnitt von 37,4 %. Das landwirtschaftlich genutzte Areal machte 2,1 % der Gesamtfläche aus. Der Wert lag unter dem Landesschnitt von 3,5 %. 6,2 % der Kommune und damit des Fylkes Oslo wurden als mit Binnengewässer bedeckt gewertet. Klima Entsprechend der Lage am Oslofjord hat Oslo ein stark maritim geprägtes feucht-kontinentales Klima (Köppen: Dfb). Im Sommer ist Südwind typisch, im Winter kommt der Wind meist aus dem Norden oder Nordosten. Aufgrund der abgeschirmten Lage Oslos kommt es nur selten zu hohen Windgeschwindigkeiten und häufig ist es windstill. Vor allem bei vorliegendem Hochdruck im Winter kann die Windstille dazu führen, dass es zu keinem Luftaustausch in den tiefer gelegenen Stadtteilen kommt und die Luft stark verunreinigt wird. Bevölkerung Entwicklung und Struktur Oslo ist mit Einwohnern die einwohnerreichste Kommune des Landes. Nach Viken ist Oslo auch das Fylke mit der zweithöchsten Einwohnerzahl. Der Tettsted Oslo, also das Stadtgebiet, ist mit Einwohnern der mit Abstand einwohnerreichste Tettsted Norwegens. Seitdem die Stadt 1814 die Hauptstadt Norwegens geworden ist, hatte Oslo fast durchgehend eine ansteigende Einwohnerzahl zu verzeichnen. Der größte Zuwachs geschah zwischen dem Ende des 19. Jahrhunderts und dem Beginn des Ersten Weltkriegs. Nachdem man im Jahr 1969 eine Einwohnerzahl von 488.329 erreichte, ging sie bis 1984 auf 447.257 zurück. Anschließend begann sie erneut anzuwachsen. Im Jahr 2021 galten 235.223 Personen in der Kommune Oslo als Einwanderer oder Person mit nach Norwegen eingewanderten Eltern. Damit hatte die Kommune einen Anteil von 33,75 % Einwanderern an der Gesamtbevölkerung und im Vergleich mit anderen Fylkern den höchsten Anteil. Im Vergleich mit anderen Fylkern hatte Oslo im Jahr 2020 die geringste Fruchtbarkeitsrate. Diese lag bei 1,38 und damit über dem Wert aus dem Jahr 1983, wo sie bei 1,34 lag. Wohnsituation Etwa 72 % der Einwohner der Kommune lebten im Jahr 2021 in Wohnblocks, 8 % in Einfamilienhäusern. Dies stellte einen großen Unterschied zum Landesdurchschnitt dar, wo der Anteil an Einfamilienhäusern zum gleichen Zeitpunkt bei 48,7 % lag. Die Wohneigentums- und Mietpreise sind in der Region Oslo mit der Zeit stark angestiegen. Im Zeitraum von 1992 bis 2020 stiegen die Immobilienpreise in Oslo und der Nachbargemeinde Bærum um etwa 900 %. Im Landesdurchschnitt belief sich in der gleichen Periode der Anstieg auf zirka 550 %. In Oslo gilt der Fluss Akerselva oder auch die etwas westlich davon verlaufende Straße Uelands gate als Grenze zwischen dem ärmeren Osten (østkant) und dem reicheren Westen (vestkant). Diese Grenze ist jedoch ungenau und es liegen auch östlich davon Gebiete, die mehr denen im Westen gleichen. Die teuersten Wohngegenden liegen im Westen Oslos. Wie in vielen Städten findet auch in Oslo Gentrifizierung statt, wobei zahlungskräftigere Bewohner zuziehen und die früheren Einwohner eine Gegend verlassen müssen. Einer der ersten und bekanntesten Fälle von Gentrifizierung in Oslo geschah im Stadtteil Grünerløkka. Stadtteile Zum 1. Januar 2004 wurden die Stadtteile neu so eingeteilt, dass nunmehr 15 Stadtteile bestehen. Sentrum (Stadtmitte) und Marka (Wald und landwirtschaftlich genutztes Land) sind keine Stadtteile in politischem Sinne, da sie zentral verwaltet werden. Am 16. Januar 2011 überschritt die Kommune die Einwohnerzahl von 600.000 Einwohnern. Politik Oslo als norwegische Hauptstadt Als Hauptstadt Norwegens ist Oslo Sitz der norwegischen Monarchie, der Regierung, des Nationalparlaments (Stortinget) und des Obersten Gerichtshofes (Høyesterett). Der König von Norwegen hat seinen Hauptsitz im Königlichen Schloss Oslo. Die Regierung und ihr Verwaltungsapparat ist auf verschiedene Gebäude im Osloer Regierungsviertel, dem Regjeringskvartalet verteilt. Viele Regierungsgebäude wurden am 22. Juli 2011 beim Bombenanschlag in Oslo beschädigt, weshalb unter anderem das Amt des Ministerpräsidenten (Statsministerens kontor) umziehen musste. Einige Regierungsgebäude wurden in der Folge abgerissen und Pläne für Neubauten vorgelegt. Das Storting ist im Stortingsgebäude untergebracht. Neben dem König, der Regierung, dem Nationalparlament und dem Obersten Gerichtshof sind in Oslo unter anderem auch ausländische Botschaften und nationale Behörden angesiedelt. Oslo als Fylke und Kommune Die Kommune Oslo nimmt zugleich die Aufgaben einer Kommune und eines Fylkes wahr. Dabei ist Oslo das einzige Fylke, das sich nicht aus mehreren Kommunen zusammensetzt. Im Gegensatz zu den anderen Fylkern hat Oslo deshalb keinen eigenen Verwaltungsapparat auf Fylkesebene, die anfallenden Aufgaben werden von kommunalen Behörden übernommen. Auch hat Oslo keinen eigenen Statsforvalter, dieser ist für Oslo und Viken gleichzeitig zuständig. Auch weitere von nationaler Seite aus nach Fylkern unterteilte Institutionen haben oft Viken und Akershus zusammen als Wirkungskreis. Vor der Gründung des Fylkes Viken im Jahr 2020 galt dies für Oslo und Akershus. Oslo fungierte dabei auch als Verwaltungssitz von Akershus. Bei nationalen Wahlen macht Oslo als Fylke einen Wahlkreis aus. Kommunalparlament und Bürgermeister Das Kommunalparlament (bystyre) von Oslo besteht aus 59 gewählten Abgeordneten und ist in Ausschüsse unterteilt. Das Kommunalparlament erfüllt auch die Aufgaben als Fylkesting. Im Jahr 1986 wurde das Proporzsystem durch das parlamentarische Mehrheitsprinzip ersetzt: Die politische Mehrheit in der Stadtversammlung wählt den Bürgermeister (ordfører) und die Stadtregierung (byråd). Dem Kommunalparlament steht ein Bürgermeister vor. Aktuelle Bürgermeisterin ist Anne Lindboe von der konservativen Partei Høyre. Bürgermeister hat Oslo seit 1837, als in Norwegen die kommunale Selbstverwaltung eingeführt wurde und Christiania eine eigenständige Kommune wurde. Erster Bürgermeister wurde Andreas Tofte. Auch die Kommune Aker, die 1948 in Oslo aufging, hatte ab 1837 Bürgermeister. Mit Ann-Marit Sæbønes erhielt Oslo im Jahr 1992 erstmals eine Bürgermeisterin. Folgende Bürgermeister hatte Oslo seit der Zusammenlegung mit Aker: 1948–1950: Halvdan Eyvind Stokke (Ap) 1951–1955: Brynjulf Bull (Ap), 1. Amtszeit 1956–1959: Rolf Stranger (H), 3. Amtszeit 1960–1961: Brynjulf Bull (Ap), 2. Amtszeit 1962–1963: Rolf Stranger (H), 4. Amtszeit 1964–1975: Brynjulf Bull (Ap), 3. Amtszeit 1976–1990: Albert Nordengen (H) 1990–1991: Peter N. Myhre (Frp) 1992–1995: Ann-Marit Sæbønes (Ap) 1995–2007: Per Ditlev-Simonsen (H) 2007: Svenn Kristiansen (FrP) 2007–2015: Fabian Stang (H) 2015–2023: Marianne Borgen (SV) seit 2023: Anne Lindboe (H) Die letzte Kommunalwahl fand am 11. September 2023 statt. Stadtregierung (Byråd) Die vom Kommunalparlament gewählte Stadtregierung (byråd) besteht aus einem Vorsitzenden (byrådsleder) und weiteren Mitgliedern (byråd). Das Kommunalparlament kann den Byråd auch wieder abwählen. Seit 2023 ist Eirik Lae Solberg von der konservativen Partei Høyre in der Position des Byrådsleders. Seine Partei regiert gemeinsam mit der liberalen Partei Venstre (V). Neben ihm besteht der Byråd aus sieben weiteren Mitgliedern, die jeweils für einen konkreten Aufgabenbereich zuständig sind. Vorsitzender: Eirik Lae Solberg (H) Finanzen: Hallstein Bjercke (V) Umwelt und Verkehr: Marit Kristine Vea (V) Gesundheit: Saliba Andreas Korkunc (H) Bildung: Julie Remen Midtgarden (H) Stadtentwicklung: James Stove Lorentzen (H) Soziale Dienste: Julianne Ferskaug (V) Kultur und Wirtschaft: Anita Leirvik North (H) Wappen Das Stadtwappen ist als Rundschild ausgebildet. Blasonierung: „Innerhalb eines zirkularen, golden gefassten, silbernen Bordes, darin in goldenen Majuskeln die lateinische Devise „UNANIMITER•ET•CONSTANTER•OSLO“ (EINMÜTIG UND BESTÄNDIG OSLO) in Blau auf silbernem Winkelschildfuß, der Schildkrümmung folgend eine liegende unbekleidete Frau mit langem goldenem Haar, ein in ein kurzärmliges langes rotes Gewand, rote Schuhe und silbernen Umhang gekleideter, silbern behelmter, golden nimbierter Mann, in den ausgestreckten Händen rechts einen silbernen Mühlstein haltend, in der Linken drei gebündelte silberne Pfeile, beidseitig hinter ihm hervorragend zwei liegende goldene Löwen, begleitet neben Haupt und Löwen von vier goldenen fünfstrahligen Sternen. Auf dem oberen Schildrand eine fünfzinnige goldener Mauerkrone.“ Wappenerklärung: Der Heilige stellt St. Hallvard dar, der beim Versuch, eine Frau vor Gewalttätern zu retten, von ihnen mit Pfeilen verwundet und, mit einem Mühlstein beschwert, ertränkt wurde. Sehenswürdigkeiten Viele der bedeutenden Bauten Oslos liegen im zentralen Stadtteil Sentrum. Durch das Zentrum führt die Karl Johans gate. Diese ist von Monumentalbauten gesäumt und gilt als Haupt- und Prachtstraße der Osloer Innenstadt. An ihrem westlichen Ende liegt das Königliche Schloss (Slottet), an ihrem östlichen Ende der Hauptbahnhof Oslo Sentralstasjon (Oslo S). An der Straße liegen des Weiteren das Gebäude des Nationalparlaments Storting, das Nationaltheatret, der Osloer Dom (Oslo Domkirke) sowie Gebäude der Universität Oslo. Weiter südlich befindet das Schloss und die Burg Festung Akershus (Akershus slott og festning) sowie das Rathaus Oslo. Zur Innenstadt gehört auch der Stadtteil Gamle Oslo (deutsch Altes Oslo). In der Innenstadt befinden sich unter anderem der Frognerpark mit der Skulpturenanlage Vigelandsanlegget und das bei den Anschlägen in Norwegen 2011 beschädigte Regierungsviertel (Regjeringskvartalet). Museen Auch die Museen der Stadt bieten zahlreiche Sehenswürdigkeiten. Dazu zählen vor allem das Frammuseum und Kon-Tiki-Museum auf Bygdøy, das 2022 neu eröffnete Nationalmuseum mit der weltberühmten Nationalgalerie, das Munch-Museum mit dem Nachlass des Malers Edvard Munch, das Norsk Folkemuseum, ein Freilichtmuseum mit wiedererrichteten Gebäuden aus ganz Norwegen, und das Vikingskipshuset mit archäologischen Wikingerschiffsfunden und das Kulturhistorisk Museum, das auch den Runenstein von Tune und den Gjermundbu-Helm präsentiert. 1993 wurde das private Astrup Fearnley Museet for Moderne Kunst eröffnet, das über eine umfangreiche Sammlung von Werken norwegischer und internationaler Gegenwartskunst verfügt, darunter seit 2002 die monumentale Porzellanskulptur Michael Jackson and Bubbles von Jeff Koons. Die deutsche Besatzungszeit wird im Holocaustmuseum, in der Villa Grande sowie dem Widerstandsmuseum Norges Hjemmefrontmuseum im Komplex der Festung Akershus aufgearbeitet. Die wechselvolle Geschichte der Stadt wird im Oslo Bymuseum gezeigt, dem Stadtmuseum auf Gut Frogner. Freizeit, Natur, Sport 1952 fanden die Olympischen Winterspiele in Oslo statt, unter anderem am Holmenkollen. Bei gutem Wetter laden die Skisprunganlage Holmenkollbakken oberhalb der Stadt mit dem Skimuseum am Holmenkollen sowie die Vigeland-Anlage im Frognerpark mit Skulpturen Gustav Vigelands zum Verweilen ein. Eine weitere Möglichkeit zur Gestaltung der Freizeit ist ein Besuch des größten Vergnügungsparks in Norwegen, dem TusenFryd. Der Park liegt etwa 20 min südlich von Oslo. Stolpersteine In Oslo wurden bislang 439 Stolpersteine verlegt (Stand: September 2021). Das Projekt des deutschen Künstlers Gunter Demnig würdigt Opfer des NS-Regimes, in Oslo überwiegend Opfer der Shoah sowie zwei Widerstandskämpfer. Die meisten Stolpersteine finden sich in den Stadtteilen St. Hanshaugen, Grünerløkka, Frogner und Gamle Oslo. Die Seite Stolpersteine in Oslo gibt einen Überblick. Das Jødisk Museum i Oslo hat eine Website erarbeitet, auf welcher die Opfer und deren Stolpersteine abgebildet sind und biographische Notizen enthalten sind. Diese Website trägt den Namen snublestein.no, so wird ein Stolperstein auf norwegisch bezeichnet. Bildung Oslo ist die größte Studentenstadt Norwegens mit zahlreichen Einrichtungen. Zu den wichtigsten gehören: Universität Oslo, gegründet 1811 Oslomet, gegründet 1994/2011, seit 2018 Universität Norwegischen Veterinärhochschule (Zusammenschluss mit der Universität für Umwelt- und Biowissenschaften in Ås im Jahr 2014), gegründet 1859/2005 Architektur- und Designhochschule Oslo Handelshøyskolen BI (Norwegian Business School): Private Wirtschaftshochschule, Campus in Oslo, Bergen, Trondheim und Stavanger Norwegische Militärhochschule: Institut für Verteidigungsstudien, Krigsskolen (Offiziersausbildung) Kunsthochschule Oslo Norwegische Musikhochschule Norwegische Polizeihochschule Norwegische Sporthochschule MF Norwegische Theologiehochschule Hochschule Kristiania VID-Universität Oslo war im Jahr 2020 nach der westlichen Nachbargemeinde Bærum die Kommune mit dem zweithöchsten Anteil an Personen mit höherer Bildung in ganz Norwegen. Insgesamt fielen 53,2 % der Einwohner über 16 Jahre in diese Kategorie. Im Fylkesvergleich lag Oslo damit auf dem ersten Platz. Der Landesdurchschnitt lag bei 35,3 %. Wirtschaft Oslo ist Sitz diverser norwegischer Unternehmen, darunter Medinor, Qt Software und Opera Software. Hier befindet sich auch die Deutsch-Norwegische Handelskammer. Innerhalb der Kernstadt herrscht ein für Europa ungewöhnlich hohes Preisniveau. In entsprechenden Rankings, basierend auf standardisierten Warenkörben, belegt die Stadt regelmäßig Spitzenplätze. Laut The Economist hat Oslo seit 2006 Tokio als die weltweit teuerste Stadt abgelöst. Bis dahin hatte die japanische Hauptstadt 14 Jahre lang Platz eins belegt. In einer Rangliste der Städte nach ihrer Lebensqualität belegte Oslo im Jahre 2018 den 25. Platz unter 231 untersuchten Städten weltweit. Verkehr Oslo ist ein bedeutender Verkehrsknotenpunkt und Endpunkt vieler Fernverkehrsstraßen und Eisenbahnlinien. Vor allem in der Innenstadt wird versucht, den Individualverkehr mit Kraftfahrzeugen einzuschränken. Die Zahl der Personenkraftwagen pro 1000 Einwohner lag im Jahr 2020 in Oslo bei 432 und damit unter dem Landesschnitt von 521. Der Anteil an Haushalten ohne Zugang zu einem PKW lag bei 37 % und war damit um fünf Prozentpunkte innerhalb von fünf Jahren gestiegen. Straßenverkehr In Oslo treffen mit der Europastraße 18 (E18) und der Europastraße 6 (E6) zwei wichtige Fernverkehrsstraßen aufeinander. Des Weiteren führen weitere Hauptverkehrsadern aus verschiedenen Richtungen auf die Kommune und die Stadt zu. Die Lage am inneren Oslofjord führt zu Problemen in der Verkehrsabwicklung in der Innenstadt. Von 2005 bis 2010 wurde zur Entlastung der Innenstadt der durch den Fjord führende Bjørvikatunnel erbaut, durch den nun die E18 verläuft. Durch Oslo führen des Weiteren drei Ringstraßen. Der Ring 1 ist der Riksvei 162, der nahe dem Oslofjord durch das Stadtzentrum führt. An seinem westlichen Ende gibt es eine Auffahrt auf die E18, am östlichen sowohl zur E18 als auch zur E6. Der Ring 2 verläuft etwas weiter außerhalb des Stadtzentrums. Der Ring 3 ist der äußerste Ring und wird durch den Riksvei 150 gebildet. Dieser verläuft von der E6 im Osten in Ringform durch den Norden der Stadt, bevor er in Bærum in die E18 mündet. Von den durch Oslo führenden Straßen wurden im Jahr 2020 Straßen in Länge von insgesamt 175 Kilometern als Riksvei oder Europastraße kategorisiert. Da das Fylke Oslo der Kommune Oslo entspricht, werden keine Straßen der Kategorie Fylkesvei zugeordnet. Diese bildet in den anderen Fylkern Norwegens die Straßenkategorie zwischen den Riksveiern und den kommunalen Straßen. Im Jahr 1990 wurde ein Mautringsystem um Oslo gebildet und begonnen, eine Innenstadtmaut an den Einfallstraßen zu erheben. Dabei wird zwischen drei Mautzonen unterschieden und unter anderem die Tageszeit und die Antriebsart des Fahrzeugs in die Mautgebühren miteinberechnet. Mit den Mautgebühren finanzierte man lange vor allem den Bau neuer Straßen, später auch andere Projekte. Um der Luftverschmutzung entgegenzuwirken, gibt es Bestrebungen, den Individualverkehr mit Kraftfahrzeugen stark einzuschränken. Vor allem im Zentrum von Oslo wird der Bau von Geh- und Radwegen vorangetrieben. Um den Autoverkehr in der Innenstadt zurückzudrängen, wurde unter anderem die Anzahl der Parkplätze mit der Zeit verkleinert. Schienenverkehr Wichtigster Knotenpunkt im Schienenverkehr ist der Hauptbahnhof Oslo Sentralstasjon (Oslo S). Der Bahnhof ist der größte des Landes. Fernverbindungen bestehen nach Kristiansand, Stavanger, Bergen und Trondheim, internationale Verbindungen nach Göteborg und Stockholm. Regionalzüge verkehren stündlich bis Lillehammer, Halden und Larvik. Weitere Orte sind durch Lokalzüge angebunden. Die erste Bahnstrecke Norwegens verband Oslo mit Eidsvoll auf einer Strecke von 68 Kilometern und wurde 1854 eröffnet. Die Linie Bergensbanen wurde im November 1909 eröffnet. Sie verbindet Oslo mit der an der norwegischen Westküste gelegenen Stadt Bergen und gilt als eines der größten Verkehrsprojekte Norwegens. Die Kosten für das Projekt entsprachen damals etwa einem gesamten Jahreshaushalt. Flugverkehr Hauptflughafen für Oslo und Norwegen ist der Flughafen Oslo-Gardermoen, der in der Kommune Ullensaker im Nordosten der Kommune Oslo liegt. Der zuvor als Hauptflughafen dienende Flughafen Oslo-Fornebu in der Nachbarkommune Bærum wird seit der Inbetriebnahme von Gardermoen nicht mehr bedient. Der Flughafen Torp wird von einigen Fluggesellschaften als Flughafen Oslo-Torp bezeichnet, liegt aber weiter entfernt von Oslo in Sandefjord. Öffentlicher Nahverkehr Oslo besitzt ein Netz von U-Bahnen, Straßenbahnen und Buslinien. Im Jahr 1894 erhielt Oslo als erste norwegische Stadt eine elektrische Straßenbahn. Durch das U-Bahn-Streckensystem Oslo T-bane ist Oslo die einzige Stadt des Landes mit einer U-Bahn. Die U-Bahn verkehrt durch die Stadtmitte unterirdisch, in den Randgebieten oberirdisch. Im Jahre 2006 wurde das U-Bahn-Netz durch eine Ringbahnstrecke ergänzt. Seit 2009 gibt es ein neues Fahrkartensystem, das beim Betreten und Verlassen der Bahnstationen die Karten kontrolliert. Jedoch können auch weiterhin Fahrausweise aus Papier gekauft werden. Fahrradverkehr Oslo verfügt über ein System öffentlicher Fahrräder, die während des Sommers an verschiedenen Standorten im Stadtgebiet ausgeliehen werden können und dort auch wieder abgegeben werden müssen. Mitte 2021 gab es in Oslo über 20.000 E-Scooter zum Ausleihen. Weil sich aber seit Anfang des Jahres bereits nahezu 900 teils schwere Unfälle ereigneten und diese besonders nachts und unter Alkoholeinfluss stattfanden, beschloss die Stadtverwaltung ein Nachtfahrverbot dafür, zwischen 23 und 5 Uhr, zusätzlich eine Beschränkung der Anzahl auf 8000 im Stadtgebiet, ab dem 10. September 2021. Schifffahrt Es gibt Fährverbindungen nach Kiel mit Color Line, Frederikshavn und Kopenhagen mit DFDS. Die Fjordinseln werden von Personenfähren bedient. Diese sind im Preis für ein Ticket des öffentlichen Nahverkehrs in Oslo inbegriffen. Der Hafen von Oslo hat den UN/LOCODE NO OSL. Panoramen Persönlichkeiten Literatur Jon G. Arntzen (Hrsg.): Oslo byleksikon, Kunnskapsforlaget, Oslo 1987, ISBN 82-573-0228-7. Marie Helen Banck: Oslo, 2. Auflage, DuMont Reiseverlag, Ostfildern 2019, ISBN 978-3-616-01033-5. Thomas Hug/Jens-Uwe Kumpch: Oslo, 4. Auflage, MAIRDUMONT, Ostfildern 2017, ISBN 978-3-8297-2856-0. Knut Kjeldstadli/Jan Eivind Myhre: Oslo – spenningenes by. Oslohistorie, Pax-Forl., Oslo 1995, ISBN 82-530-1745-6. Weblinks Offizielle Website der Kommune Oslo (norwegisch und englisch) Oslo im Store norske leksikon (norwegisch) Fakten über Oslo beim Statistisk sentralbyrå (norwegisch) Museum der Stadt Oslo (Gut Frogner, norwegisch) Einzelnachweise Norwegisches Fylke Hauptstadt in Europa Ort mit Seehafen Ort in Norwegen Provinzhauptstadt in Norwegen NUTS-3-Region Hochschul- oder Universitätsstadt in Norwegen
Q585
1,899.147
4437559
https://de.wikipedia.org/wiki/Penis
Penis
Als Penis (, indogermanischer Wortstamm, „Schwanz, männliches Glied“; vgl. ; Plural: Penes oder auch Penisse), fachsprachlich auch Membrum virile (männliches Glied), bezeichnet man das Begattungsorgan männlicher Tiere bei Arten mit einer inneren Befruchtung. Funktion Der Penis dient zur Übertragung der Spermien in den weiblichen Geschlechtstrakt und bei Plazentatieren auch der Ausscheidung des Harns. Er ist vor allem bei landlebenden Tierarten sowie bei Sedimentbewohnern ausgebildet. Die Penes verschiedener Tiergruppen sind untereinander nicht homolog, sondern im Laufe der Evolution mehrfach unabhängig voneinander entstanden. Der Penis des Menschen entspricht in seiner Anatomie und Funktion dem typisch aufgebauten Penis der Säugetiere. Als Phallus ist er in vielen Kulturen ein bedeutendes Fruchtbarkeitssymbol. Aufbau und Vorkommen Der Penis stellt im Regelfall ein unpaares röhren- oder rinnenförmiges Organ dar, das als Verlängerung des Samenleiters dient. Im einfachsten Falle wird er von einem Schlauch gebildet, der als Körperanhang mit Hilfe des Körperinnendrucks ausgestülpt und in die Vagina des weiblichen Tieres eingeführt wird. Diese Form ist beispielsweise bei verschiedenen Plattwürmern und den Rädertierchen ausgebildet und wird dort als Cirrus bezeichnet. Bei den Kratzwürmern, vielen Schnecken und Ringelwürmern und bei einigen Schlangen wird der Penis durch ein Stützgewebe sowie durch Hornsubstanz stabilisiert. Dieses cuticuläre Außenskelett versteift den Penis und bietet Ansatzstellen für Muskulatur, mit deren Hilfe der Penis vorgestreckt werden kann. Bei vielen Insekten und anderen Gliederfüßern, vor allem Krebstieren, wird der Penis dagegen als Röhre aus Chitin gebildet und kann teleskopartig ein- und ausgefahren werden. Dabei ist er durch weiche Zwischenhäutchen allerdings vergleichsweise flexibel. Bei ihnen wird der Penis auch als Aedeagus bezeichnet. Bei den meisten Wirbeltieren, die einen geschlossenen Blutkreislauf besitzen, erfolgt die Ausstülpung des Penis dagegen nicht über Muskulatur, sondern mit Hilfe von speziellen Schwellkörpern, die aus Bindegewebe mit zahlreichen Hohlräumen bestehen. Bei ihnen werden die Schwellkörper mit Blut gefüllt und führen so zu einer Erektion des Penis. Diese Form der Peniserektion ist bei den Schildkröten, Krokodilen und dem Penis der Säugetiere ausgebildet, geht aber auch hier nicht auf einen gemeinsamen Ursprung zurück. Beim Penis der Vögel gibt es ebenfalls Schwellkörper, diese werden jedoch über Lymphe gefüllt. Einen Sondertyp des Penis stellen die starren Injektionskanülen dar, die bei einigen Kiefermündchen und Strudelwürmern ausgebildet sind. Bei ihnen wird das Sperma nicht in die weibliche Geschlechtsöffnung, sondern an einer beliebigen Stelle in den Körper des Weibchens injiziert, eine sogenannte hypodermale Kopulation. Die Spermien gelangen dann über die Körperflüssigkeit zu den Eiern und befruchten diese. Obwohl Penisbildungen in der Regel unpaar sind, gibt es auch einige Tiergruppen mit paarig vorhandenen Hemipenes (Halbpenisse). Dazu gehören unter den wirbellosen Tieren die Eintagsfliegen sowie unter den Wirbeltieren die Schuppenkriechtiere mit den beiden Hemipenes. Zur Stimulation und zum besseren Halt können Penisse bei vielen Säugetieren und auch bei Reptilien mit Hornschuppen und Widerhaken ausgestattet sein. Siehe auch Penis des Menschen Penis der Hunde Literatur Wilfried Westheide, Reinhard Rieger (Hrsg.): Spezielle Zoologie. Teil 1: Einzeller und Wirbellose Tiere. Fischer, Stuttgart/ Jena/ New York 1996, ISBN 3-437-20515-3. Wilfried Westheide, Reinhard Rieger (Hrsg.): Spezielle Zoologie. Teil 2: Wirbel- und Schädeltiere (= Spektrum Lehrbuch.). Spektrum Akademischer Verlag, München 2004, ISBN 3-8274-0307-3. Penis. In: Herder-Lexikon der Biologie. Spektrum Akademischer Verlag, Heidelberg 2003, ISBN 3-8274-0354-5. Kim Wallen, Elisabeth A. Lloyd: Clitoral variability compared with penile variability supports nonadaptation of female orgasm. In: Evolution & Development. 2008, Band 10, Nr. 1, S. 1–2. Weblinks Männliches Geschlechtsorgan
Q58
189.582347
236020
https://de.wikipedia.org/wiki/Telenovela
Telenovela
Die Telenovela (spanisch und portugiesisch telenovela [], Fernsehroman, in brasilianischem Portugiesisch novela) ist eine spezielle Form der Fernsehserie, die aus Lateinamerika stammt. Seit den 1980er Jahren sind Telenovelas auch in anderen Regionen der Welt bekannt – vor allem in Osteuropa, auf dem Balkan, in Nordafrika, China und den USA. Geschichte Telenovelas haben ihren Ursprung im vorrevolutionären Kuba. Dort hörten – schon vor dem Aufkommen des Radios – Arbeiterinnen in den Zigarren-Manufakturen während der Arbeit vorgelesene Fortsetzungsromane, die sich aus den Unterbrechungen von Arbeitstag zu Arbeitstag ergaben. Die Tradition hat sich bis heute erhalten. 1930 übertrug man in Kuba zum ersten Mal eine Radionovela und arbeitete Romane in Hörspiele um. Im 19. Jahrhundert waren Fortsetzungsromane auch in Europa bekannt und populär. Werke von Alexandre Dumas (Die drei Musketiere) und Charles Dickens (Oliver Twist) erschienen ursprünglich in Zeitungen und Zeitschriften. Für jede neue Ausgabe entstand eine Fortsetzung. Begeisterten die Geschichten die Leser, konnte der Autor länger am Roman schreiben und mehr verdienen. In den 1950er Jahren entdeckte Lateinamerika den Fortsetzungsroman für das Fernsehen. Die erste Telenovela stammt aus dem Jahr 1950. Sua vida me pertence war eine brasilianisch-kubanisch-mexikanische Koproduktion und wurde zweimal wöchentlich ausgestrahlt. Senderos de amor (Kuba, 1951) und Ángeles de la calle (Mexiko, 1951) folgten und wurden einmal wöchentlich gezeigt. Senda prohibida, aus den Jahren 1957/58, von der Drehbuchautorin Fernanda Villeli war die erste Telenovela, die täglich gezeigt wurde. Die erste Telenovela, die einem breiteren, internationalen Publikum vorgestellt wurde, war Simplemente María (Peru, 1969). Die erfolgreichsten Telenovela-Produktionen stammten und stammen aus Mexiko und Brasilien, wo sie zu den besten Sendezeiten laufen. In etwas geringerem Umfang sind Telenovelas auch in Argentinien, Venezuela (z. B. die auch in Deutschland gezeigte Telenovela Morena Clara), Chile und Kolumbien beliebt. Die Telenovelas wurden zunächst nach Spanien, Portugal und Italien portiert, dann in die GUS-Staaten, die Republiken des ehemaligen Jugoslawien, Nordafrika und China. Lateinamerikanische Telenovelas, aus den Produktionsstätten Televisa (Mexiko) und Rede Globo (Brasilien), sind weltweit stärker verbreitet als US-amerikanische, australische und britische Seifenopern zusammen. Nicht selten laufen pro Kanal bis zu sechs verschiedene Telenovelas. Die erfolgreichste Telenovela aller Zeiten, die in insgesamt 95 Länder exportierte Die Sklavin Isaura (Rede Globo, Brasilien), war auch die erste Fernsehsendung mit einer ausländischen Schauspielerin im chinesischen Fernsehen: 450 Millionen Chinesen verfolgten die Leiden der weißen Sklavin. Für die Hauptrolle erhielt Lucélia Santos, seither ein bekannter westlicher Star, dort den Goldenen Adler. In Polen ist Niewolnica Isaura die quotenstärkste Sendung, die je im Fernsehen lief. Im Durchschnitt kam die Telenovela auf eine Einschaltquote von 81 %, in Bestzeiten sogar 92 %. Nach dem Fall des Eisernen Vorhangs strahlte das russische Fernsehen die mexikanische Telenovela Los ricos también lloran aus. Die Serie erreichte 100 Millionen Zuschauer. Die venezolanische Telenovela Kassandra gelangte ins Guinness-Buch der Rekorde – als meistexportierte spanischsprachige Produktion aller Zeiten. Kassandra lief in 128 Ländern, war die erste Telenovela, die in Japan ausgestrahlt wurde, und machte die Schauspielerin Coraima Torres weltberühmt. 1986 fiel in Mexiko wegen Überlastung landesweit der Strom aus, während das letzte Kapitel der Telenovela Cuna de Lobos lief. Ein ähnlicher Fall hatte sich 2007, während der Ausstrahlung des letzten Kapitels von Paraíso Tropical, in Brasilien ereignet. In Deutschland gab es bereits in den 1980er Jahren vereinzelt oft deutlich gekürzte lateinamerikanische Telenovelas zu sehen. Die Sklavin Isaura schnitt man von 100 auf 40 Kapitel zusammen. Vom 1. November 2004 bis zum 5. Oktober 2005 lief mit Bianca – Wege zum Glück die erste deutsche Telenovela im Fernsehen. Der Unterschied zwischen Telenovelas und Seifenopern Im deutschen Sprachgebrauch ersetzt das Wort Telenovela zunehmend das Wort Seifenoper, obwohl es sich um unterschiedliche Genres gehandelt hat. Aufbau der Telenovela Klassisch erzählt die Telenovela aus der Perspektive der meist weiblichen Hauptfigur (Protagonista). Allerdings werden auch Telenovelas mit männlichen oder jugendlichen Hauptfiguren und Themen, die das gesamte Publikum ansprechen, produziert. Bei Telenovelas wird normalerweise täglich ein Kapitel ausgestrahlt. Auch wird stets das Konzept des Cliffhangers verwendet: Ein Kapitel endet mit einem dramatischen Ereignis, der Ausgang bleibt zunächst offen. Das soll motivieren, am folgenden Tag wieder einzuschalten. Anders als Seifenopern haben Telenovelas einen klar definierten Anfang und ein vorher festgelegtes Ende. Normalerweise dauern sie mindestens vier Monate bis maximal ein Jahr (80–250 Kapitel), was jedoch von der Handlung abhängt. Telenovelas sind auf einem großen Handlungsbogen angelegt. Die Nebenfiguren verknüpfen sich auf die eine oder andere Art stets mit einer der Hauptfiguren – somit auch die Neben- mit der Haupthandlung. Dies ermöglicht den sogenannten Multiplot, das heißt, mehrere Handlungsstränge können parallel erzählt werden. Die Hauptakteure bleiben hierbei leicht im Vordergrund. Da die einzelnen Figuren so manches Geheimnis nicht kennen, gibt es genügend Raum für Spannung, Dramatik, Tränen und glückliche Momente. Aufbau der Seifenoper Eine Seifenoper verfolgt viele voneinander völlig unabhängige Handlungen gleichberechtigt auf unbegrenzte Zeit. Aufgrund des nie endenden Plots wechselt die Besetzung ständig. Seifenopern spinnen sich endlos von einem Handlungsbogen zum nächsten. Einzig sinkende Zuschauerzahlen können die Handlung einer Seifenoper beenden. In diesem Fall wird meist, aus Kostengründen, auf ein abgerundetes Ende verzichtet (z. B. Die Colbys – Das Imperium, Models Inc., Central Park West, Karussell der Puppen). Bei den meisten anderen Fernsehserien dagegen stellt jede Episode eine neue Handlung dar. Es gibt kaum Cliffhanger, und die einzelnen Episoden sind in sich abgeschlossen (z. B. Unsere kleine Farm). Charakteristikum der Telenovela Für Telenovelas ist der stark hervorgehobene Melos im Drama charakteristisch. Neben dem Gesprochenen untermalt entsprechende Mimik (stumme Begleitmusik) dramatische Situationen. Tiefe Emotionen, die Mimik nicht ausdrücken kann, werden durch Musik unterstrichen. Besonders die Gedanken der Figuren – meist die der weiblichen Hauptfigur – werden in einem sogenannten Voiceover gesprochen. Das Stilmittel soll die Genreverwandtschaft zu einer geschriebenen Romanerzählung ausdrücken. Handlungslinien von Telenovelas Die Telenovela greift gern zu Märchenmotiven. Besonders beliebt sind Schneewittchen- (die böse Stief- oder Schwiegermutter macht dem guten Mädchen das Leben schwer) und Aschenputtelvarianten (das arme Mädchen sucht sein Glück bei einem begüterten Mann). Gleichermaßen werden auch Telenovelas zu aktuellen, zeitkritischen Thematiken gedreht, die die emanzipierte Karrierefrau zeigen. Gerne zeigt man auch, wie sich Arbeiterklasse und sogenannte gehobene Gesellschaft unterscheiden. Oder auch Rassenkonflikte, wie zum Beispiel in der Telenovela Gitanas, in der es um „Zigeunerinnen“ geht. Die Telenovela O Clone handelt von der Liebe zwischen der Muslimin Jade und dem Christen Lucas; Drogenmissbrauch und Klonen sind ebenfalls Bestandteile der Handlung. Mit Okkultismus setzen sich die Charaktere in La Chacala auseinander. In den Telenovelas Lacos de familia und De cuerpo y alma stehen jeweils eine leukämie- und eine herzkranke junge Frau im Mittelpunkt. Während die Heldin in Abrázame muy fuerte oder Esmeralda blind ist, befasst sich Cristal mit Brustkrebs. In Yo soy Betty, la fea schaltet sogar eine unattraktive, aber kluge Frau ihre verführerische Konkurrenz aus. In Los hijos de nadie stehen Straßenkinder im Mittelpunkt. Die Telenovela Nada personal thematisierte auch die hohe Kriminalität in Mexiko. Das Finale von Machos – la brutal pasión de siete hermanos aus Chile, mit Männern in den Hauptrollen, verfolgten über 60 % aller Fernsehzuschauer, auf dem Sender Canal 13. Auch die argentinische Telenovela Rebelde Way mit Jugendlichen als Hauptakteuren war erfolgreich. Während die meisten anderen lateinamerikanischen Produktionen weiterhin auf archetypische Handlungslinien setzen, werden in Brasilien gerne innovative und kritische Themengebiete angeschnitten. Auf dem Sender Rede Globo hat sich folgendes Muster eingebürgert: 18:00 Uhr – Geschichten aus der Kolonialzeit, Sklaverei, Immigrationszeit, in der Regel mit einem romantischen Hauch. 19:00 Uhr – Zeitgemäße Geschichten, gelegentlich mit ein wenig Humor, Komplotte, Rache und Intrigen. 20:00 Uhr – Novela das Oito (Acht-Uhr-Novela) – auf dem Sendeplatz wird die Telenovela ausgestrahlt, von der man sich den größten Erfolg verspricht. Oft werden sozialkritische Themen wie Abtreibung, Menschenklonen, Behinderungen, Korruption, Prostitution, Drogenmissbrauch, Kriminalität, Diskriminierung genutzt. Im Regelfall gibt es ein Happy End. Die Produktion von Telenovelas Vorgehensweisen, Techniken Telenovelas werden auf zweierlei Art produziert: Die erste führte der Chilene Valentin Pimstein bei mexikanischen Telenovelas ein: Man arbeitet mit offenen Drehbüchern und dreht vorerst 30 bis 50 Folgen. Während sie ausgestrahlt werden, finden Umfragen bei den Zuschauern statt. So können die Autoren auch nach deren Wünschen neue Figuren und zusätzliche Verwicklungen herbeirufen. Die zweite stammt ebenfalls von einem Mexikaner – Ernesto Alonso. Die Telenovela wird vollständig abgeschlossen. Bei großer Publikumsresonanz kann man nachträglich im Mittelteil Kapitel ergänzen. So wurde die Telenovela Salomé von den ursprünglichen 150 Kapiteln auf 180 aufgestockt. Produktionen mit wenig Erfolg lassen sich kürzen, um attraktive Sendeplätze nicht zu blockieren. Im Unterschied zu deutschen Telenovela- und Seifenoper-Produktionen wenden die lateinamerikanischen Telenovela-Produktionsfirmen oft hohe Summen für Kulissen, Kostüme, Make-up und Styling auf. Gleichermaßen machen sie öfter Außenaufnahmen und achten auf schöne Landschaftsaufnahmen. Man setzt auf bekannte und angesehene Schauspieler statt auf anonyme Newcomer. Fernando Colugna, Victoria Ruffo, César Évora, Helena Rojo, Thalía, Gabriela Spanic und Lucélia Santos sind nur einige von ihnen. Bei Seifenopern wäre eine solche Produktion auf Dauer zu teuer. Da Telenovelas ein rasches Tempo einhalten müssen, arbeiten sie mit anderen Produktionsmethoden als gewöhnliche Serien. Studios mit besonders hoher Produktion setzen Souffleure ein. Die Schauspielerinnen und Schauspieler haben ein kleines Hörgerät im Ohr, das ihnen den Text und die dazugehörige Mimik und Gestik zuflüstert. Das erspart den Akteuren das Lernen von Text und häufiges Wiederholen misslungener Szenen. Im anderen Ohr befindet sich das Mikrophon. Das beugt zeitaufwendigen Synchronisationen bei Problemen mit der Tonaufnahme vor. Im Durchschnitt muss bei einer lateinamerikanischen Telenovela 43–50 Minuten sendefähiges Material pro Drehtag produziert werden. Bei einer deutschen Seifenoper wie Gute Zeiten, schlechte Zeiten sind es nur 25 Minuten, die man pro Drehtag erreichen muss. Für übliche, einmal wöchentlich ausgestrahlte Fernsehserien, wie zum Beispiel In aller Freundschaft, rechnet man wiederum im Durchschnitt mit einer Woche Drehzeit pro Folge (10–12 Minuten pro Drehtag). Es wird meistens mit Autorenteams oder mit vielen einzelnen Drehbuchschreibern gearbeitet. In der Regel gibt ein Autor die grundlegende Handlungslinie vor, während die anderen Schreiber die verschiedenen Vorgaben von Kapitel zu Kapitel einarbeiten. Kleinere Studios arbeiten auch nach der konventionellen Methode und lassen sich das Drehbuch von einem einzelnen Autor anfertigen. Nicht selten haben auch renommierte brasilianische Schriftsteller wie Jorge Amado an Drehbüchern mitgewirkt. Mehrere Regisseure kommen ebenfalls zum Einsatz. So kann parallel an mehreren Sets gedreht werden, was zusätzlich Zeit einspart. Manche Telenovelas werden sogar bandlos auf Wechselfestplatte gedreht. Das unterstützt die hohe Produktionsgeschwindigkeit und erspart die üblichen Wartezeiten durch Digitalisieren oder Einspielen in der Produktion. Der gelegentlich erwünschte „Romantiklook“ wird im selben Arbeitsschritt mittels Avid-Plug-ins über das gefilmte Material gelegt. In Deutschland setzte man diese Techniken bei der Telenovela Sturm der Liebe ein. Televisa (Mexiko), die neben Rede Globo (Brasilien) führende Produktionsfirma, produziert jährlich zwischen 12 und 16 Telenovelas. Sie exportiert rund 80 % ihrer Produktionen. Bedeutende Produktionsfirmen UFA Serial Drama und Bavaria Film (Deutschland) Televisa und TV Azteca (Mexiko) Rede Globo, SBT, Rede Record und Rede Bandeirantes (Brasilien) RCTV, Venevisión und Televen (Venezuela) RCN und Caracol (Kolumbien) Telefe und Artear (Argentinien) TVN und Canal 13 (Chile) In den USA laufen Telenovelas vorzugsweise bei den auf die Wünsche der Hispano-Amerikaner zugeschnittenen Sendern Univisión und Telemundo. Public Relations von Telenovelas Kurz vor Beginn einer neuen Telenovela ist in lateinamerikanischen Ländern eine umfangreiche Werbekampagne üblich: So werden Trailer in den Werbeblöcken der laufenden Telenovelas gezeigt und Werbung in verschiedenen Printmedien wie Zeitschriften gebucht. Viele Plakatwände weisen auf die kommende Produktion hin. Oft animieren Fragen auf den Plakatwänden die Zuschauer, z. B. „Was steht zwischen … und …?“, „Weshalb ist … zurückgekehrt?“, „Was hat … vor?“, „An wen denkt …?“, „Wovon träumt …?“. Die meisten Länder übernahmen diese erfolgreiche Strategie. Eine wichtige Rolle spielt das Titellied. Die Melodie soll eingängig und mit hohem Wiedererkennungseffekt sein. Viele Titelmelodien von Telenovelas konnten hohe Positionen in den Charts sichern. Stellvertretend für alle seien hier Mi destino eres tú (gleichnamige Telenovela) der Sängerin und Schauspielerin Lucero, Hoy (aus Amar otra vez) von Gloria Estefan oder Nunca te olvidaré (gleichnamige Telenovela) von Enrique Iglesias erwähnt: lange Zeit die Nr. 1 der Charts in den lateinamerikanischen Ländern. Für die Telenovela Amar otra vez wurden drei verschiedene Versionen des Vorspanns gedreht. Zwei für den Export bestimmte Versionen sang Gloria Estefan, und die für Mexiko bestimmte Fassung sang Enrique Iglesias. In den Telenovelas Rebelde Way und Rebelde spielten die Darsteller die Bands ERREWAY und RBD. Sie konnten später unter diesen Namen große Karrieren starten. Die brasilianische Telenovela O Clone setzte Lieder von Shakira, Andrea Bocelli, Ajda Pekkan, Sting, Elton John, Sarah Brightman, Lara Fabian und vielen anderen internationalen Stars ein. Natacha Atlas trat in selbiger Telenovela in einer kleinen Gastrolle auf. Die australische Gruppe Dead Can Dance lieferte mit dem Stück Nierika das Intro zu La Chacala. Für La madrastra sangen Laura Pausini („Viveme“) und Reyli Barba („Amor del bueno“) zwei verschiedene Intros ein. Tiziano Ferros Alucinado wurde die Erkennungsmelodie von La invasora. In Ländern, in denen Telenovelas beliebt sind, beschäftigen sich Zeitschriften und Magazine mit dem Serienformat. Führend auf dem Gebiet ist das mexikanische Magazin TVyNovelas von der Produktionsfirma Televisa – seit 1979 verkauft und in vielen Ländern als lizenzierte Ausgabe angeboten. Es gibt auch einige unabhängige Magazine, wie z. B. TV Novele – in Serbien produziert und im gesamten ehemaligen Jugoslawien publiziert. Geboten werden Hintergrundberichte, Vorschauen auf kommende Kapitel und Produktionen, Poster und Interviews mit den Darstellern. Auf diesem Weg erfuhren auch in Lateinamerika, der Urheimat der Telenovela, die Fans vom Erfolg der ersten deutschen Telenovela Bianca – Wege zum Glück. Die mexikanische Produktionsfirma Televisa hat mittlerweile viele Telenovelas, aus der hauseigenen Produktion, auf DVD veröffentlicht. Meistens stehen optional englische Untertitel zur Verfügung. In vielen Ländern werden auch lizenzierte DVDs in synchronisierter Fassung bzw. in Landessprache untertitelter Fassung verkauft. Die allseits beliebten Soundtracks, mit der Musik aus den Latinonovelas, sind ebenfalls im Angebot. Zu deutschen Telenovelas gibt es zu fast jeder Telenovela ein separates Fanmagazin, Romane, Soundtracks und DVDs. Veranstaltungen rund um eine Telenovela Die von dem mexikanischen Magazin TVyNovelas seit 1981 jährlich veranstaltete Gala Premios TVyNovelas kürt unter anderem die beste Telenovela, die beste Hauptdarstellerin, den besten Hauptdarsteller, das beste Titellied, das beste Drehbuch und vieles mehr. Eine ähnliche Veranstaltung, bei der derzeit in dreizehn Kategorien Preise vergeben werden, wird vom brasilianischen Magazin Contigo! organisiert. In Lateinamerika hat diese Gala einen ähnlichen Status wie die Oscarverleihung. Seit 2003 findet jährlich der sogenannte Telenovelagipfel (Cumbre Mundial de la Industria de la Telenovela y la Fición) statt. Hier werden internationale Telenovelaproduktionen vorgestellt, auch Preise werden verliehen. Die größte und erfolgreichste Telenovelaproduktionsstätte, Televisa aus Mexiko, nahm erst bei der dritten Veranstaltung teil. Neufassungen von Telenovelas Die Telenovela Simplemente Maria (1967) wurde weitere fünf Male verfilmt; in Peru (1969), Brasilien (1970), Venezuela (1972), Argentinien (1979) und Mexiko (1989). Die letztere Fassung aus Mexiko stieß in Russland auf besonders große Akzeptanz und machte Victoria Ruffo, die Maria spielte, sehr beliebt. Die von 1999 bis 2001 in Kolumbien gedrehte Telenovela Yo soy Betty, la fea wurde ein solcher Erfolg, dass sie die Nachfolgetelenovela Eco Moda erhielt. Mehr noch, das Drehbuch wurde in Russland (Ne rodis krasivoy), den Niederlanden (Lotte), Mexiko (La fea más bella und El amor no es como lo pintan), Indien (Jassi Jaissi Koi Nahin), Deutschland (Verliebt in Berlin), Griechenland (Maria, i Aschimi), Israel (Esti Ha'mechoeret), Spanien (Yo soy Bea), Serbien und Kroatien in Koproduktion (Ne daj se, Nina), Tschechien (Ošklivka Katka), der Türkei (Sensiz Olmuyor), Belgien (Sara), Polen (Brzydula), Vietnam (Cô Gái Xấu Xí), den Philippinen (I ♥ Betty la fea) und den USA (Ugly Betty), China (Chou Nu Wu Di) und Brasilien (Bela, a feia) übernommen. Andere Produktionen bedienten sich an Motiven der Rahmenhandlung wie z. B. Mi gorda bella (Mexiko), La mujer en el espejo (Mexiko), Dame chocolate (Mexiko), Patido fea (Argentinien) und Tudo por amor (Portugal). In LaLola aus Argentinien (2007) verwandelt sich der Hauptdarsteller, ein archetypischer Macho, über Nacht in eine Frau. Mittlerweile wurde diese Telenovela in Chile (Lola), Belgien (LouisLouise), China, Spanien und der Türkei unter dem Namen Lola verfilmt. Von der Telenovela Esmeralda wurden vier Versionen verfilmt. Zwei in Mexiko (1972/1997), eine in Venezuela (1984) und eine in Brasilien (2004). Die mexikanische Fassung von 1997 wurde 1998 als „beste Telenovela des Jahres 1997“ bei der Gala des Magazins TVyNovelas preisgekrönt. Seit 2004 wird eine neue Fassung der einst sehr erfolgreichen Novela Die Sklavin Isaura in Brasilien gedreht. Yolanda Vargas Dulché's Erfolgsgeschichte Rubi wurde erstmals 1968 als Telenovela in 53 Kapiteln verfilmt. 1970 folgte der Spielfilm Rubi, der dieselbe Geschichte als Grundlage hatte. 2004 erhielt die Neuverfilmung der Telenovela Rubi, mit 115 Kapiteln, den Preis als „beste Telenovela 2004“ von dem Magazin TVyNovelas verliehen. 2005 wurde eine mexikanische Neufassung der von Delia Fiallo geschriebenen Telenovela Kassandra mit dem Titel Peregrina gedreht. Fiallo war auch Autorin anderer erfolgreicher und preisgekrönter Projekte wie Guandalupe, Luz Maria, Esmeralda, Milagros, Soledad, Rosalinda und vieler weiterer. Es gab diverse Ableger der argentinischen Telenovela Rebelde Way. Die mexikanische Version unter dem Namen Rebelde konnte den Erfolg des Originals sogar übertreffen. Die europäische Telenovela Der Erfolg der importierten Telenovelas veranlasste viele Länder, eigene Produktionen zu wagen. Serbien So wurde zum Beispiel in Serbien 2004/2005 die Telenovela Jelena, von Power House Entertainment, produziert. Die Telenovela basiert auf einem eigens für diese Produktion geschriebenen Drehbuch des Mexikaners Joaquín Guerrero Casarola y Gómez. Zur besseren Vermarktung wurde das erste Kapitel von Jelena, am 18. Oktober 2004, sogar auf dem Belgrader „Trg Republike“ mit einem Videobeamer auf eine Leinwand projiziert. Schon kurz nach Beendigung der Dreharbeiten wurde die Telenovela in 12 Länder exportiert (darunter Mexiko). Jelena erhielt am 1. und 2. Oktober 2004 beim „Zweiten internationalen Telenovelagipfel“ in Barcelona einen Preis für „das beste Drehbuch“ (noch vor Reich und schön). 2007/2008 wurde auf RTV Pink, mit Ljubav i mržnja, eine weitere Telenovela ausgestrahlt. Nachdem der Kroate Roman Majetić mit den Produktionen seiner AVA Television produktion in Serbien sehr hohe Einschaltquoten erzielen konnte, eröffnete er 2007 in Belgrad die Niederlassung AVA film. Sein erstes Projekt in Serbien ist die Telenovela Zaustavi vreme. Nachdem seine Produktionsfirma begann, Misserfolge zu verzeichnen, konnte die Serie bislang nicht vermarktet werden, obgleich sich die Produktionskosten auf rund 10 Millionen Euro beliefen. Kroatien Im Nachbarland Kroatien produzierte AVA Television production die Telenovela Villa Maria (2004/2005), und auch sie holten sich Verstärkung aus Mexiko; von der Regisseurin Alicia Carvajal. Ljubav u zaleđu (2005/2006), Obični ljudi (2006/2007) und Ponos Ratkajevih (2007/2008) sind die Titel der folgenden kroatischen Telenovelaproduktionen aus dem Hause AVA. Um sie auf dem benachbarten serbischen Markt besser platzieren zu können, engagierte AVA neben kroatischen auch serbische Schauspieler. In den ersten beiden Telenovelas hatten auch mexikanische Stars Gastauftritte. So spielten Omar Germenos und Gloria Peralta in Villa Maria und Juan Pablo Medina sowie Paola Toyos in Ljubav u zaleđu mit. Beim „Zweiten internationalen Telenovelagipfel“ in Barcelona erhielt die Produktionsfirma AVA Television production zwei Auszeichnungen für die Telenovela Villa Maria. Die Preise galten der Regie und der Produktion. Die Telenovela aus dem Hause AVA Television production für die Saison 2008/2009 hieß Zakon ljubavi und wurde im Herbst 2008 auf Nova TV ausgestrahlt. Obwohl die Telenovelas der AVA Production auf dem öffentlich-rechtlichen Sender HRT große Erfolge feierten, konnte die neue Serie, auf einem anderen Sender, nicht an die Erfolgsgeschichte anknüpfen. Von den geplanten 185 Kapiteln wurden 73 verfilmt und 60 ausgestrahlt, bevor die Telenovela abgesetzt wurde. HRT beauftragte währenddessen die Produktionsfirma Ring Multimedia, neue Telenovelas für das tägliche Abendprogramm zu entwerfen. Das war das erste Mal, dass sich eine andere Produktionsfirma in Kroatien an dieses Fernsehformat heranwagte. Die Produktionen Sve će biti dobro und Dolina sunca knüpften an die Quotenerfolge der zuvor, auf selbigem Sendeplatz, ausgestrahlten Telenovelas an. Von 2009 bis 2011 wurde auf dem Privatsender Nova TV die Telenovela Najbolje Godine ausgestrahlt, in der die serbische Schauspielerin Katarina Radivojević die Hauptrolle gibt. Darauf folgte von 2011 bis 2013 die Telenovela Larin izbor mit Doris Pinčić, welche die von den Einschaltquoten her erfolgreichste im kroatischen Fernsehen war. Für die Saison 2013/2014 folgte die Telenovela Zora dubrovačka, welche von der Belagerung von Dubrovnik handelt. Von 2014 bis 2016 wurde Kud puklo, da puklo ausgestrahlt, die eine Mischung aus Telenovela und Comedy darstellte. 2016/2017 strahlte Nova TV Zlatni dvori mit Katarina Baban in der Hauptrolle aus. Seit Herbst 2017 wird die Telenovela Čista ljubav mit Tara Rosandić gesendet. Der Privatsender RTL Televizija strahlte 2008 die Telenovela Ne daj se, Nina mit Lana Gojak aus, die eine Remake der Telenovela Yo soy Betty, la fea ist. Von 2011 bis 2013 wurde Ruža vjetrova ausgestrahlt. Tajne (2013/2014), Vatre ivanjske (2014/2015), Horvatovi (2015/2016) und Prava žena (2016/2017) folgten. Türkei Ein ebenfalls erfolgreiches Produktionsland ist die Türkei. Unter den Hauptproduzenten ist der Privatsender Kanal D zu finden. Binbir Gece, mit Bergüzar Korel und Halit Ergenç, wurde, abgesehen vom Produktionsland, unter anderem auch in Aserbaidschan, Bulgarien, Kroatien, Kuwait, Rumänien, Mazedonien, Serbien, Griechenland, Montenegro, Bosnien und Herzegowina und Slowenien ausgestrahlt. Bergüzar Korel und Halit Ergenç, die im wahren Leben ein Ehepaar sind, besuchten, zu Promotionszwecken, Kroatien und Serbien, wo sie euphorisch empfangen wurden. Mit der kroatischen Schauspielerin Marijana Mikulić wirkten sie in zwei Werbespots für die Kaufhauskette IDEA Konzum mit. Darüber hinaus ist Binbir Gece in Kroatien eine der drei meistgesehenen ausländischen Fernsehserien der letzten dreißig Jahre, die nicht in englischer Sprache verfilmt wurde (neben der tschechoslowakischen Serie Das Krankenhaus am Rande der Stadt sowie der italienischen Krankenhausserie Incantesimo). Weitere internationale Erfolge waren beispielsweise Gümüş mit Kıvanç Tatlıtuğ und Songül Öden, Yaprak Dökümü sowie Aşk – i Memnu. Für die Hauptrolle der neuen Telenovela Lale devri wurde die serbische Sängerin Emina Jahović engagiert, die für diese Rolle nachsynchronisiert wird. Rumänien Rumänien ist eine der führenden Nationen Osteuropas, was die Produktion von Telenovelas anbelangt. Mehrere Serien wurden international vermarktet. Einige, wie beispielsweise „Ingerasii“ und Lacrimi de iubire aus dem Hause Media Pro Pictures, wurden auch vom mexikanischen Sender ausgestrahlt. Besonders erfolgreich war die Produktion Inimă de ţigan, die auch in Osteuropa außerhalb Rumäniens sehr populär war. Russland Die erste russische Telenovela Bednaja Nastja wurde 2003/2004, in Zusammenarbeit von AMEDIA, Russian World Studios und Sony Pictures, gedreht. Die Telenovela, die im 19. Jahrhundert spielt, stieß auch, über die Grenzen der einstigen UdSSR hinaus, auf positive Resonanz. In China konnte die in 127 Kapitel erzählte dramatische Geschichte der Fürstin Anastasia hohe Einschaltquoten sichern. Selbst in den Vereinigten Arabischen Emiraten wurde das russische Erstlingswerk, auf dem Kanal EDTV Dubai, ausgestrahlt. Aufgrund der positiven Zuschauerreaktionen folgten weitere russische Telenovela-Produktionen. Italien In Italien wurden, 1999 mit Vivere und 2001 mit CentoVetrine, zwei international erfolgreiche Telenovelas produziert. Deutschsprachige Telenovelas Deutschland Seit November 2004, als das ZDF die erste deutsche Telenovela Bianca – Wege zum Glück – hergestellt von den deutschen Produktionsfirmen Grundy UFA in Zusammenarbeit mit teamWorx – auf den Markt brachte, tritt das hierzulande bislang wenig bekannte Serienformat immer häufiger im deutschsprachigen Fernsehen auf. Ihr Erfolg führte zu einer weiteren Nachfolge-Telenovela, Wege zum Glück (vormals Julia – Wege zum Glück). Wenig später nach Bianca – Wege zum Glück startete Sat.1 mit Verliebt in Berlin die zweite deutsche Telenovela, ebenfalls von Grundy UFA (in Zusammenarbeit mit Phoenix Film) produziert. Die Geschichte um Lisa Plenske wurde mehrfach verlängert, auf insgesamt 645 Kapitel statt der ursprünglich geplanten 225. Verliebt in Berlin und Sturm der Liebe sowie auch Wege zum Glück wurden nach Ende der Handlung, mit neuen Protagonisten und neuem Plot, fortgesetzt. Verliebt in Berlin und Sturm der Liebe konnten außerdem exportiert werden. Die deutschen Telenovelas verlieren aber immer mehr den ursprünglichen Kern, und so sind Wege zum Glück, Sturm der Liebe und Rote Rosen inzwischen eine Mischform aus Telenovela und Daily Soap. Nachdem nach der Reihe die Komponenten der Telenovela wie z. B. das „voraussehbare Ende“ verloren gehen, kann das Format nur mehr durch das Hauptliebespaar, das bei einer Daily Soap nicht eingegrenzt werden kann, kategorisiert werden. Österreich Der österreichische Privatsender ServusTV produziert seit 2017 die Fernsehserie Trakehnerblut, die die typischen Elemente einer Telenovela enthält, jedoch offiziell nicht als eine gilt. Die Serie wird wöchentlich immer donnerstags ausgestrahlt. Geplant sind acht Folgen. Fremdsprachige Telenovelas im deutschsprachigen Raum Hin und wieder wurden auch fremdsprachige Telenovelas in den deutschsprachigen Raum verkauft. Es folgt eine Übersicht über diese, die zusätzlich eine deutschsprachige Synchronisation erhalten haben. Lateinamerikanische Telenovelas Azul – Paradies in Gefahr (Azul) Mexiko 1996, 60 Kapitel (Passion*) Das Recht zu lieben (Direito de Amar) Brasilien 1987, 160 Kapitel (Das Erste*, ORF) Der Clan der Wölfe (Cuna de Lobos) Mexiko 1986, 85 Kapitel – in Mexiko 120 Kapitel (RTL*) Die Leihmutter (Barriga de Aluguel) Brasilien 1992, 180 Kapitel – in Brasilien 243 Kapitel (Das Erste*) Die Sklavin Isaura (Escrava Isaura) Brasilien 1976, 40 Kapitel – in Brasilien 100 Kapitel (Das Erste*) Die Tochter des Paten (Cosecharás tu siembra) Argentinien 1991, 187 Kapitel (DF1 Herz & Co*) Die wilde Rose (Rosa Salvaje) Mexiko 1988, 99 Kapitel (RTL*) Dona Beija (Dona Beija) Brasilien 1986, 63 Kapitel – in Brasilien 89 Kapitel (Passion*) Feuer der Liebe (Cuando llega el amor) Mexiko 1990, 45 Kapitel (RTL*) GO! Sei du selbst (Go! Vive a tu Manera) Argentinien 2019, 30 Kapitel (Netflix*) Helena (Helena) Brasilien 1987, 72 Kapitel (Passion*) Juanita ist Single (Juanita, la soltera) Argentinien 2006, 116 Kapitel (9Live*) Marimar (Marimar) Mexiko 1994, 149 Kapitel (RTL*) Morena Clara (Morena Clara) Venezuela 1995, 137 Kapitel (TM3*) Nie vergaß ich Soledad (Mi pequeña Soledad) Mexiko 1990, 160 Kapitel (RTL*) NOOBees (N00Bees) Kolumbien 2018, 60 Kapitel (Nickelodeon*) Paradies der Lüste / Trügerisches Paradies (Riacho doce) Brasilien 1990, 45 Kapitel (Tele 5*) Rebelde Way – Leb dein Leben (Rebelde Way) Argentinien 2002, 26 Kapitel – in Argentinien 318 Kapitel (Nickelodeon*) Rodrigo – Spiel der Herzen (El Auténtico Rodrigo Leal), Kolumbien 2004, 101 Kapitel (Puls 4*) Rubi – Bezauberndes Biest (Rubí) Mexiko 2004, 115 Kapitel (Passion*, RTL) Ruf des Herzens (Tu o nadie) Mexiko 1988, 60 Kapitel (RTL*) Salomé (Salomé) Mexiko 2001, 150 Kapitel – 180 in Mexiko (RTL II*) Sinhá Moça – Die Tochter des Sklavenhalters (Sinhá Moça) Brasilien 1986, 170 Kapitel (Das Erste*) Soy Luna (Soy Luna) Argentinien 2016, 220 Kapitel (Disney Channel*) Spiel mit dem Feuer (Roda de fogo) Brasilien 1986, 180 Kapitel (Tele 5*) Top Model (Top Model) Brasilien 1989, 180 Kapitel (Tele 5*) Total Dreamer – Träume werden wahr (Totalmente Demais) Brasilien 2015, 130 Kapitel – in Brasilien 175 Kapitel (Sixx*) Vale Tudo – Um jeden Preis (Vale Tudo) Brasilien 1988, 170 Kapitel (Das Erste*) Violetta (Violetta) Argentinien 2012, 240 Kapitel (Disney Channel*) Wildcat (Fera radical) Brasilien 1988, 170 Kapitel (Tele 5*) US-amerikanische Telenovelas Betty in New York (Betty en NY) USA 2019, 123 Kapitel (Sixx*, Sat.1 emotions) Europäische Telenovelas Elisa (Elisa di Rivombrosa) Italien 2003, 52 Kapitel (NDR*) Frozen Memories (Rainha das Flores) Portugal 2016, 110 Kapitel – in Portugal 304 Kapitel (Sat.1 emotions*) (*) = deutsche Erstausstrahlung Der gesellschaftliche Einfluss der Telenovela Telenovelas konnten wesentlich zur Gesundheitsaufklärung in Lateinamerika beitragen – und zur Emanzipation der Frau, die sie meistens als starke und aufgeklärte Person darstellen. Die Figur der Mutter ist in den Geschichten oft zentral und positiv. Immer häufiger werden Telenovelas mit männlichen und jugendlichen Charakteren in den Hauptrollen produziert – so steigt auch bei der Bevölkerungsgruppe der Einfluss. In der argentinischen Telenovela Simplemente Maria ist Irma Roy die junge Maria, die – in der Hoffnung, etwas Geld zu verdienen – aus der Provinz in die Großstadt zieht. Als sie schwanger wird, verlässt sie ihr Lebensgefährte. Doch sie bildet sich weiter und arbeitet parallel als Näherin, um sich über Wasser zu halten. Fundierte Studien konnten belegen, dass während der Ausstrahlung der Telenovela der Verkauf von Singer-Nähmaschinen drastisch in die Höhe schoss, die Zahlen von Anmeldungen zu Kursen zur Erwachsenenbildung stetig wuchsen und die Umzüge vom Lande in die Stadt deutlich zunahmen. Als 1969 in der peruanischen Fassung von Simplemente Maria „Marias“ Hochzeit auf der Plaza de Mayor in Lima gefilmt wurde, versammelten sich 10.000 Menschen, um dem Ereignis beizuwohnen. Als die beiden Telenovelas Lacos de familia und De cuerpo y alma (in denen es jeweils um eine leukämiekranke bzw. eine herzkranke junge Frau geht) liefen, schnellten Blut-, Knochenmark- und Organspenden drastisch in die Höhe. Eine diesbezüglich veranlasste Studie ist Der Camila-Effekt benannt worden, nach der Hauptfigur aus Lacos de familia: Zu Beginn der Telenovela meldeten sich durchschnittlich 20 Knochenmarkspender pro Monat. Es wurden 900 neue Registrierungen, als die Telenovela gegen Ende die Leukämie immer stärker thematisierte. In Nada personal oder Xica da Silva werden unverblümt die sozialen Missstände, Prostitution und die hohe Kriminalität in Lateinamerika angesprochen, was ebenfalls aufklärende Wirkung zeigte. Insbesondere TV Azteca thematisiert in ihren Telenovelas Dinge, die sonst nie die Chance gehabt hätten, offen im mexikanischen Fernsehen angesprochen zu werden. Unter anderem wurde sogar der Fall des 1994 ermordeten Präsidentschaftskandidaten Luis Donaldo Colosio Murrieta, unter anderem Namen, in einer Telenovela verarbeitet. Korrupte Politiker dienten oft als Negativbilder. Um dem Jugendkult zu entfliehen und um auch andere Altersgruppen mit adäquaten Themen zu versorgen, nahm TV Azteca wesentlich öfter Charaktere mittleren Alters in die Geschichten mit auf. Themen wie gescheiterte Ehen und das Leben danach, Beziehungen mit wesentlich jüngeren oder älteren Partnern und andere moralische Tabuthemen wurden angeschnitten. Frauen in hohen Positionen, die sich im Berufsleben gegen neidische Männer durchsetzen, kamen verstärkt vor. TV Azteca liefert auch vermehrt männliche Identifikationsbilder. Studien zeigten, dass höher verdienendes Publikum mit besserem Bildungs- und Qualifikationsniveau Produktionen von TV Azteca jenen von Televisa vorzog. Neben Nada personal konnte TV Azteca mit Mirada de mujer und Cuando seas mía große Erfolge erzielen. In Serbien war die Beliebtheit der Telenovela Kassandra derartig groß, dass das Soziologiebuch der 4. Klasse der Gymnasien es erwähnt. Der Folk-Sänger Šaban Bajramović widmete Kassandra einen Song auf seinem damals aktuellen Album, während Dragana Mirković für ihr Lied Dušu si mi opio einen Videoclip aufnahm, der stark von Kassandra inspiriert war. Auch die Popularität der ersten kroatischen Telenovela Villa Maria war im benachbarten Serbien so groß, dass die Popsängerin Tijana Dapčević sie in ihrem jugonostalgischen Song Sve je isto samo njega nema (Es ist alles beim Alten, nur er ist nicht mehr da (in Bezug auf Tito)) erwähnte. „Čujem u Beogradu, da se gleda Villa Maria …“ (Ich höre, dass man in Belgrad Villa Maria schaut …), lautete die besagte Textzeile. In dem Lied La Gitana parodiert das Duo Flamingosi zusammen mit der Sängerin Emina Jahović typische Situationen aus verschiedenen Telenovelas. In seinem Song Španska serija fordert der Sänger Aleksandar Kapriš seine Partnerin auf, sich zwischen der Telenovela und ihm zu entscheiden. Im Lied Srbija, das die Popgruppe Luna mit Lepi Mića und Milić Vukašinović singt, werden serbische Gewohnheiten und Eigenarten auf den Arm genommen. In der Mitte des Videoclips wird das Lied gestoppt, und die Akteure versammeln sich um den Fernseher, um eine Telenovela zu schauen. Trotz des meist positiven Effektes von Telenovelas treffen gelegentlich fanatische Nebenerscheinungen das Genre auch. Im Dezember 1992 ermordete der Globo-Schauspieler Guilherme de Padua seine Kollegin Daniella Perez, die in einer Serie mit ihm ein Liebespaar spielte. Privat wollte Perez aber von ihrem Kollegen nichts wissen, weshalb sie von ihm umgebracht wurde. Dieser Mord erregte in Brasilien mehr Aufsehen als der gleichzeitige Rücktritt des damaligen Staatspräsidenten Fernando Collor de Mello. Noch heute pilgern Tausende zum Tatort an einer Schnellstraße in Rio, um die Ermordete zu beweinen. Als die Hauptfigur Kassandra in der gleichnamigen Telenovela fälschlicherweise wegen Mordes inhaftiert wurde, bildeten Fernsehzuschauer im Ort Kučevo in Serbien eine Bürgerinitiative. Sie ließen der venezolanischen Regierung und dem damaligen Präsidenten Serbiens Slobodan Milošević ein Schreiben zukommen, in dem sie forderten „Wir wissen, dass Kassandra unschuldig ist! Stoppt ihr Leiden!“. Im benachbarten Bosnien-Herzegowina war die Bevölkerung empört, als Kassandra ohne Erklärung aus dem Programm verschwand. Das US State Department kam zur Hilfe und bat Antonio Paez von Coral Pictures um Rat. Nachdem man nachgeforscht hatte, stellte man fest, dass das bosnische Fernsehen nie über die Senderechte für die Telenovela verfügt hatte. Man gab zu, das Signal eines anderen Senders aus der Region, der die Telenovela ausgestrahlt hatte, übernommen zu haben. Als dies technisch nicht mehr möglich war, blieb die Telenovela aus. Da Antonio Paez jedoch um die finanziellen Nöte des bosnischen Fernsehens wusste, stiftete er dem Sender alle 150 Kapitel von Kassandra. Aufgrund der großen Publikumsresonanz besuchten Coraima Torres (Kassandra) und ihr Kollege Henry Soto (Randú) Bulgarien und Serbien. Gelegentlich vernachlässigen Menschen aufgrund der imaginären Geschichten ihr eigenes Leben. In Indonesien ließ die Regierung verlauten, dass „es unentschuldbar sei, wegen der Telenovela Kassandra nicht zur Arbeit zu gehen“. Während die Telenovela Marimar ausgestrahlt wurde, ließen die Moscheen die Gebete während der Fastenzeit an Ramadan in Abidjan vorverlegen. Das ersparte den Gläubigen die Qual der Wahl. Die Telenovela in der Kritik Gegner monieren vielfach die stark idealisierte und realitätsferne Scheinwelt, die von Telenovelas geschaffen werde. Nach ihrer Auffassung sind derartige Serien mit ihren glamourösen Kulissen und stets gutaussehenden Akteuren sehr weit vom Alltagsleben entfernt. Ein weiterer zentraler Kritikpunkt sind die auftretenden Figuren, die oftmals als hölzern und stereotyp bemängelt werden. Statt einer vielseitigen Darbietung würden die Charaktere auf einfältige Eigenschaften reduziert, so dass am Ende nur noch klischeehafte Polaritäten (gut – böse, Gutmütigkeit – Missgunst usw.) übrigbleiben. Viele Psychologen gehen davon aus, dass Telenovelas ihrem TV-Publikum vor allem als Realitätsflucht dienen. Führend in der Produktion sind Brasilien und Mexiko. Laut Sichtweise der Kritiker soll die Glanzwelt der Telenovela die Zuschauer in den Slums und Favelas über soziale Missstände, Unterdrückung, Opposition, Ungerechtigkeit und Demonstrationen hinwegtrösten. Wenn in der Serie viele unglückliche und vom Schicksal gestrafte Menschen Gerechtigkeit erfahren, lässt das die Einschaltquote erheblich ansteigen. Insbesondere mexikanische Telenovelas zeichnen sich gelegentlich durch stereotype Charaktere und einfache Handlungsstränge aus. Ein häufiges Motiv ist das arme, aber gut aussehende Mädchen, das sich in einen reichen Mann verliebt, während dessen Familie die Beziehung zerstören will. Die schärfste Kritik an den deutschen Telenovelas ist die angeblich schlechte Adaption des Formates. Man wirft deutschen Produktionen vor, Erzähltechniken einer Seifenoper anzuwenden und diese unter der Bezeichnung Telenovela zu publizieren. So schrieb die Journalistin Melanie Ruprecht: „Der größte Fehler besteht darin, dieses Format als lächerlich oder seicht abzutun. In lateinamerikanischen Ländern spielt es eine wichtige Rolle und hat eine bedeutende gesellschaftliche Funktion inne. Verliebt in Berlin hingegen wird allenfalls zwei neue Schlagerstars hervorbringen.“ Der Grundy-UFA-Chef Rainer Wemcken sieht den Sachverhalt hingegen vollkommen anders. Er ist der Auffassung, dass ausländische Telenovelas im deutschsprachigen Raum nicht greifen können, und sagt: „Wenn eine Telenovela richtig Quote bringen soll, muss sie Made in Germany sein.“. Die mexikanische Regisseurin Alicia Carvajal war zwar mit dem Drehbuch der kroatischen Telenovela Villa Maria zufrieden, aber sie hatte andere Kritikpunkte: „In Villa Maria wird ständig geraucht und getrunken, sowas wäre in mexikanischen Serien undenkbar, denn dort ist man sich des edukativen Einflusses der Telenovela bewusst und nutzt ihn, um Jugendliche in die richtigen Bahnen zu geleiten!“ Trivia Mit 605 Episoden hält Mundo de juguete – von 1974 bis 1977 in Mexiko produziert – den Rekord als längste lateinamerikanische Telenovela. Mit mehr als 3500 Episoden hält Sturm der Liebe (seit 2005) den Rekord als längste deutsche Telenovela. Am 19. September 1985 wurde Televisa, die ihren Sitz im Stadtteil San Angel in Mexiko-Stadt hatte, bei einem Erdbeben stark in Mitleidenschaft gezogen. Viele der Originalaufzeichnungen wurden zerstört. Bekannte Sängerinnen und Schauspielerinnen begannen ihre Karriere als Protagonistin in einer Telenovela: Thalía, Shakira, Paulina Rubio, Patricia Manterola, Salma Hayek. Aufgrund des großen Erfolges wurde die Telenovela Salomé nachträglich von 150 auf 180 Episoden erweitert. In Deutschland strahlte RTL II jedoch nur die ursprüngliche Fassung mit 150 Episoden aus. Für die Rolle der leukämiekranken Camila, in Laços de Família, ließ sich die Schauspielerin Carolina Dieckmann ihr langes, blondes Haar abschneiden. O clone wurde teilweise in Marokko gedreht und war die erste Produktion, die im US-Fernsehen mit englischen Untertiteln ausgestrahlt wurde. Bei dem Zirkus Suarez, der in der Telenovela Kassandra vorkommt, handelt es sich um einen richtigen Zirkus. Die Schauspieler reisten während der Dreharbeiten mit den Artisten von Stadt zu Stadt. Weblinks Informationen über die Form „Telenovela“ Kritische Stellungnahme zur Telenovela des „Movie-College“ aus München Die Entwicklungsgeschichte der lateinamerikanischen Telenovela (Webarchive, englisch) Ingo Malcher: Die Fabrik der Illusionen. In: Brand eins. Nr. 8, 2008, Einzelnachweise Fernsehgattung Kofferwort he:אופרת סבון#טלנובלה
Q23745
123.471817
14392
https://de.wikipedia.org/wiki/Gitarre
Gitarre
Die Gitarre (von , dieses über arabische Vermittlung von , kithara) ist ein Musikinstrument aus der Familie der Lauteninstrumente, nach der Tonerzeugung ein Saiteninstrument, spieltechnisch ein gezupftes bzw. geschlagenes Zupfinstrument. Es gibt akustische und elektrische Gitarren (E-Gitarren) sowie Hybridformen. Aufbau Eine Gitarre ist in drei Teile untergliedert: Korpus Nach der Korpusform gehört die Gitarre zu den Kastenhalslauten. Bei akustischen Instrumenten (im Gegensatz zu elektrischen) besteht der Korpus meistens aus einem leichten, taillierten, hölzernen Resonanzkörper, wiederum bestehend aus Boden, Zargen und Decke, wobei in die Kante zwischen Zarge und Decke oft eine Randeinlage eingefügt ist. Die Decke, deren Material den wichtigsten Faktor für die Klangqualität einer akustischen Gitarre darstellt, hat dabei ein meistens kreisrundes Schallloch, das bis ins 18. Jahrhundert mit einer Rosette verziert wurde. Wie bei den Violinen gehen – im Gegensatz etwa zur Viola da gamba und zum Kontrabass – die Schultern des Korpus nicht in einer Rundung, sondern annähernd in einem rechten Winkel in den Hals über. Es gibt jedoch, vor allem im Bereich der E-Gitarren, noch zahlreiche andere Bauformen wie zum Beispiel Halbresonanz-Gitarren und Solidbody-Gitarren (ohne Hohlkörper). Auf dem Korpus befindet sich der Steg (englisch bridge). An diesem, bei akustischen Gitarren auf die Decke geleimten Querriegel oder – zumeist bei elektrischen Gitarren – unterhalb davon an einem Saitenhalter, ist das eine Ende der Saiten befestigt. Auch für den Steg gibt es zahlreiche unterschiedliche Bauformen mit unterschiedlichen Einstellmöglichkeiten für Saitenlage, exakte Mensur einzelner Saiten oder auch mit Sonderfunktionen (zum Beispiel Tremolo-Hebel – eigentlich Vibrato). Hals Eine Gitarre hat einen Hals, über dem zwischen Sattel (am Kopf) und Steg (auf dem Korpus) Saiten aufgespannt sind. Die Saitenstärke variiert je nach Stimmung und Mensur. Da die Gitarre, ein sogenanntes Querriegelinstrument, aus dem Korpus und einem davon deutlich abgesetzten Hals besteht, rechnet man sie (im Gegensatz zu den einfachen Chordophonen wie den Zithern) zu den zusammengesetzten Chordophonen. Bei heutigen Gitarren besteht der Hals meist nicht aus einem Stück, sondern aus mehreren quer verleimten Hölzern und einem aufgesetzten Griffbrett, über dem die Saiten laufen. Diese Konstruktion bietet Vorteile für die Formstabilität des Halses (bei Austrocknung) und zudem durch die Wahl unterschiedlicher Hölzer für Hals und Griffbrett die Möglichkeit der gezielten Einflussnahme auf Klang und Bespielbarkeit der Gitarre. Bei klassischen Gitarren mit Darm- oder Kunststoffsaiten hat ein einfacher massiver Holzhals ausreichend Stabilität, um dem Zug der Saiten ohne störende Verformung standzuhalten. Viele Instrumente mit Stahlsaiten, vor allem Western-, beziehungsweise Steelgitarren und E-Gitarren, sowie ganz besonders E-Bässe, haben jedoch noch einen in den Hals eingelassenen einstellbaren Halsspannstab (auch truss rod oder Trussrod). Dieser liegt etwa in der Mitte des Halses in einem gebogenen Kanal und bewirkt eine Vorspannung des Halses entgegen der Saitenzugspannung. Typische Gitarren haben auf dem Griffbrett Bünde (englisch frets). Diese helfen, die Saite beim Greifen punktgenau zu verkürzen, um einen bestimmten Ton beim Anschlagen zu erzeugen. Jedes Bundstäbchen entspricht dabei im Allgemeinen einem („temperierten“) Halbtonschritt. Oftmals sind am Hals Markierungen an einigen Bundpositionen angebracht, vor allem am 5., 7. und 9. Bund. Ursprünglich bestanden die Bünde bis ins 18. Jahrhundert aus Darm (um den Hals geschnürte Darmsaiten), später wurden sie auch aus Elfenbein oder Silber gefertigt. Moderne Gitarrenbünde werden meist aus Neusilber (als Bunddraht) gefertigt. Bünde aus festen Materialien sind (im Gegensatz zu Darmbünden) unverrückbar in das Griffbrett eingehämmert. Diese Bauweise erlaubt es eigentlich nicht, Zwischentöne zu erzeugen. Mit geeigneten Spieltechniken wie zum Beispiel Ziehen (Bending), Bottleneck (beziehungsweise Slide) ist aber auch das möglich. Der Hals variiert je nach Art der Gitarre. Klassische Gitarren haben eher einen breiten und flachgewölbten Hals, Stahlsaitengitarren eher schmale und fast halbrunde Hälse sowie gewölbte Griffbretter. Am Anfang des Griffbrettes befindet sich der Sattel. Am verbreitetsten sind Sättel aus Kunststoff und aus Knochen. Sie werden entweder in eine in das Griffbrett gefräste Nut eingelassen oder an das Ende des Griffbretts geleimt. Kunststoffsättel werden industriell hergestellt und sind daher preiswerter. Bei Knochensätteln wird zwischen zwei verschiedenen Materialien unterschieden: zwischen ausgekochten und nahezu weißen, gebleichten Knochensätteln und sogenannten Fettsätteln, die aus nichtausgekochtem, ungebleichtem Rinderknochen bestehen. Letztere sorgen aufgrund des im Knochen verbliebenen Fettanteils für eine Schmierung in den Sattelkerben, was ein Festklemmen der Saiten erschwert. Fettsättel haben aufgrund ihrer Naturbelassenheit eine leicht gelbliche Färbung. Aufgrund guter Verarbeitbarkeit und Schmiereigenschaften werden auch verschiedene Kunststoff-Graphit-Mischungen für die Herstellung von Gitarrensätteln verwendet. Das Griffbrett endet auf der Decke, meist schließt es mit oder kurz vor dem Schallloch ab. Manche Instrumente haben „schwebende“ Griffbretter, die entweder nicht oder nur teilweise auf der Decke aufliegen. Meist werden solche Instrumente mit einem Griffbrettkeil gefertigt, der einen besseren Spielwinkel für den Spieler ermöglicht. Kopf Am Ende des Halses befindet sich meist der Kopf bzw. die Kopfplatte, an der das andere Ende der Saiten an den drehbaren Stimmwirbeln befestigt ist. Mittels der seit dem 19. Jahrhundert verwendeten Stimmmechanik (übersetzte Wirbel) werden die Saiten gespannt und durch Regulierung der Spannung gestimmt. Der notwendige Druck der Saiten auf den Sattel entsteht dabei durch die Abwinkelung der Kopfplatte gegenüber dem Hals oder durch geeignete Hilfsmaßnahmen wie zum Beispiel Saitenniederhalter oder „gestaggerte“ Mechaniken (zum Ende der Kopfplatte niedriger werdende Wirbel). Zu den häufigsten Bauformen von Kopfplatten gehören die Fensterkopfplatte (die bei Konzertgitarren Standard ist) und die massive Kopfplatte, die meist auf Stahlsaiten-Instrumenten oder historischen Instrumenten sowie hin und wieder bei Flamencogitarren Verwendung findet. Viele E-Gitarren haben Klemmsättel, bei denen die Saiten am Sattel arretiert werden, um in Verbindung mit Vibratosystemen eine bessere Stimmstabilität zu erzielen. Es gibt auch gänzlich kopflose Gitarren (headless-Design, populär gemacht in den frühen 1980er Jahren durch Ned Steinberger). In beiden Fällen werden die Wirbel durch Stimmmechaniken am Steg ergänzt oder ersetzt. Das heißt, die eigentliche Stimmfunktion wandert an das andere Saitenende auf dem Korpus. Stimmung und Tonumfang Die sechs verschieden dicken Saiten (gezählt bzw. nummeriert von der dünnsten bis zur dicksten Saite) der heute meistverbreiteten Gitarre (genannt Primgitarre) sind meistens (beginnend bei der dicksten Saite) auf E – A – d – g – h – e’ gestimmt (Standardstimmung), in der Regel wird dabei vom Kammerton a1 = 440 Hz ausgegangen. Die offenen Saiten liegen also auf E2 = 82,4 Hz bis E4 = 329,6 Hz. Am 19. Bund (klassische Gitarre) liegt der höchste Grundton bei B5 (deutsch h) mit 987,8 Hz, bei der E-Gitarre am 22. Bund typischerweise auf D6 mit 1174,7 Hz. Als Standard-Stimmung der sechssaitigen Gitarre hat sich im Gegensatz zur historisch älteren und symmetrischen Quart-Terz-Stimmung der Vihuela mit reinen Quarten und einer großen Terz in der Mitte (4-4-3-4-4) die asymmetrische Intervallfolge 4-4-4-3-4 durchgesetzt. Diese Stimmung von der tiefsten („dicksten“) zur höchsten („dünnsten“) Gitarrensaite ergibt für die sogenannte 1/1-Gitarre („Primgitarre“) mit einer Mensur von durchschnittlich 65 cm die Töne E – A – d – g – h – e′. Diese Stimmung und der Bezug mit sechs (einchörigen) Saiten ist erst seit der zweiten Hälfte des 18. Jahrhunderts gebräuchlich. Gelegentlich werden auch eine oder mehrere Saiten der Gitarre auf andere Töne gestimmt. Eine solche veränderte Stimmung nennt man Skordatur (= „Umstimmung“). Die häufigste Skordatur in der klassischen Gitarrenmusik ist D – A – d – g – h – e’ (Dropped-D-Stimmung). Seltener anzutreffen ist: D – G – d – g – h – e’. Um bei Renaissancemusik auf der modernen Gitarre die originalen Fingersätze verwenden zu können, wird die Skordatur E – A – d – fis – h – e’ verwendet, die der symmetrischen 4-4-3-4-4-Anordnung der Vihuela und der ersten sechs Chören der Renaissancelaute entspricht. Offene Stimmungen In Folk- und Fingerstyle-Richtungen werden auch Skordaturen verwendet, bei denen die leeren Saiten einen einfachen Akkord ergeben. Solche Skordaturen werden offene Stimmungen (open tunings) genannt. Ein bekanntes Beispiel hierfür ist das Stück Das Loch in der Banane von Klaus Weiland. Durch das Mitschwingen der leeren Saiten erhält die Gitarre einen volleren Klang. Gebräuchliche offene Stimmungen sind: Offene D-Stimmung: D – A – d – fis – a – d′ Offene G-Stimmung: D – G – d – g – h – d′ Die Stimmung D – A – d – g – h – e’ wird als Dropped-D-Stimmung manchmal auch zu den offenen Stimmungen gezählt, obwohl die leeren Saiten keinen einfachen Akkord ergeben. In irischer Musik wird gerne die so genannte modale Stimmung D – A – d – g – a – d’ verwendet, und man spielt Harmonien, deren Klanggeschlecht (Dur/Moll) nicht bestimmt ist, da die Terz fehlt. Spezielle Bauformen Gitarren gibt es in unterschiedlicher Größe und Mensur. So gibt es neben der Primgitarre (aufgrund der E-Moll-Grundstimmung früher auch E-Gitarre, und in Bezug auf den „Normalton“ C auch C-Gitarre, genannt) mit einer freischwebenden Saitenlänge (Mensur) von 60 bis 65 cm unter anderem Kindergitarren und auch speziell für kleinere Menschen angefertigte Instrumente, die unter anderem von Künstlern wie Prince gespielt wurden, sowie Gitarren unterschiedlicher Stimmlagen innerhalb der Gitarrenfamilie wie die (im 19. bereits bekannte) Terzgitarre (genannt auch G-Gitarre oder Es-Gitarre), die Quartgitarre („Halbe Gitarre“, auch A-Gitarre genannt, mit einer Mensur von etwa 50 und der Stimmung A-d-g-c'-e'-a', neukonstruiert von dem Dresdner Gitarrenlehrer A. Schneider und von Anton Diabelli im Trio op. 62 verlangt), die Quintgitarre (etwa – konstruiert vor 1920 von Anton Schneider – mit einer Mensur von 44 cm; auch als H-Gitarre), die Quintbassgitarre und die Kontrabass-Gitarre (sowie die Sext- und Septbassgitarre). Beim Bau der Gitarre werden für den Korpus und den Hals traditionell Hölzer verwendet. Jedoch kommen auch hier vereinzelt andere Materialien, wie zum Beispiel Metall, Verbundwerkstoffe oder Carbon, zum Einsatz. Kleinteile wie die Stegeinlage bestehen je nach Preisklasse ebenfalls aus verschiedenen Materialien, z. B. Kunststoff, Horn oder Knochen. Die Mechanik kann je nach Fabrikat (teilweise) aus Holz, Kunststoff oder veredelten Metallteilen bestehen. Beim Gitarrenbau werden in der Regel spezielle Klanghölzer verwendet – je nach Art und Eigenschaften in unterschiedlichen Kombinationen. Bei einfachen Instrumenten bestehen Decke und Boden aus Sperrholz. Diese Bauweise ist kostengünstig und darüber hinaus weniger anfällig für Risse, allerdings ist die Klangqualität in der Regel geringer als bei Gitarren aus Massivhölzern. Die nächste Stufe hat eine Decke aus massivem Holz, und Spitzeninstrumente sind meist komplett aus massiven Hölzern gefertigt. Kindergitarre Eine Kindergitarre ist eine normale akustische Gitarre, die für unterschiedliche Körpergrößen verkleinert gefertigt wird. Kindergrößen sind, ungefähr bezogen auf Gitarren mit einer Mensur von 65 cm, ⅛, ¼, ½, ¾ und ⅞. Der Hals mit dem Griffbrett ist schmaler und dünner, damit ihn eine Kinderhand umfassen und die Saiten ohne Mühe greifen kann. Die Saiten sind in Standard-Stimmung. Eine tiefe Saitenlage und geringe Spannung der Saiten ist von Vorteil für kleine Finger. Stahlsaiten schneiden stark ein und sind daher für Kinderhände eher ungeeignet. Chitarrina (auch Bezeichnung für eine kleine Laute) wird im Italienischen eine, nicht mit Kindergitarren zu verwechselnde, Spielzeuggitarre genannt. Flamenco-Gitarren Allgemein haben Flamenco-Gitarren dünnere Decken, Böden und Zargen, sind insgesamt leichter und oft flacher gebaut. Böden und Zargen werden meist aus sehr leichtem Holz hergestellt. Eine Mittelstellung zwischen der traditionellen Flamencogitarre mit Böden und Zargen aus Zypresse (flamenca blanca oder guitarra blanca) und der klassischen Gitarre nimmt wegen der verwendeten Hölzer die flamenca negra oder guitarra negra ein, deren Böden und Zargen aus Palisander sind. Ursprünglich aus Kostengründen, heute aber eher aus Traditions- und Gewichtsgründen verzichtet mancher Flamenco-Gitarrenbauer auf eine Mechanik mit Gewinde und verwendet stattdessen hölzerne Wirbel, wie sie bei Geigen üblich sind und auch bei Wirbelbrettern der Gitarren aus der Zeit der Wiener Klassik zu finden sind. Die Flamenco-Gitarre klingt in den oberen Lagen stärker, spricht schnell an und klingt schnell aus. Dies unterstützt den harten und brillanten Charakter des Flamencospiels, der sich gegen die anderen perkussiven Elemente dieser Musik und die Tänzer durchsetzen können muss. Die Saitenlage ist traditionell eher niedrig, wodurch durchaus erwünschte perkussive Nebengeräusche entstehen. Da Flamenco-Gitarristen (guitarristas) jedoch heute oft einen konzertanten Stil pflegen, wird mitunter eine höhere Saitenlage verlangt. Don Antonio de Torres (1817–1892) gilt als erster Erbauer spezieller Flamenco-Gitarren (um 1867). Speziell Flamenco-Gitarren sind oft mit einem Golpeador bestückt, einer dünnen, heute meist transparenten, früher oft weißen oder schwarzen aufgeklebten Kunststoffschicht. Sie umgibt das Schallloch von drei Seiten bis hin zum Steg und soll die Gitarrendecke vor Beschädigungen schützen; insbesondere bei Verwendung der perkussiven Technik Golpe. Ein Golpeador kann auch nachträglich an einer Gitarre angebracht werden. Plektrumgitarre oder Schlaggitarre siehe Archtop, Jazzgitarre und Westerngitarre sowie #Barock Gitarren für Linkshänder Es reicht meist nicht, bei einer normalen Gitarre die Saiten „verkehrt“ aufzuziehen. Ein nachträglicher Umbau ist oft unbefriedigend. Einige wenige Hersteller bauen spiegelbildlich gestaltete Modelle, bei denen ggf. selbst die Schlagbretter und Cutaways (die das Spielen in den höchsten Lagen erleichtern sollen) stimmen. Gute Gitarren werden heute nicht symmetrisch gebaut. Die Stegeinlage ist schräg angeordnet, um den Ton auf den hohen Bünden oktavrein zu halten. So haben die tiefen Saiten – bedingt durch ihre größere Amplitude und die höhere Stegeinlage – eine größere Schwingungslänge als die hohen, dünneren Saiten. Würde man auf einer Gitarre die Saitenlage lediglich umdrehen, würde durch den schrägen Steg die Oktavunreinheit verstärkt. Die Einkerbungen im Sattel werden entsprechend der Saitendicke unterschiedlich ausgeführt. Die Deckenverleistung im Inneren ist gewöhnlich den statischen und akustischen Anforderungen entsprechend asymmetrisch konstruiert. Heutzutage bieten die meisten großen Hersteller von elektrischen Gitarren und Stahlsaitengitarren auch spezielle Linkshänder-Gitarren an. Aufgrund der geringeren Nachfrage und des gesteigerten Produktionsaufwandes sind sie allerdings 10 bis 30 Prozent teurer als Rechtshänder-Gitarren des gleichen Modells. Es werden zudem nur einige wenige Modelle aus der Modellpalette auch als Linkshand-Version angeboten. Die Tatsache, dass es überhaupt Linkshänder-Gitarren gibt, stellt eine Eigenheit dieser Instrumentengattung dar. Selten findet man Streicher, die ihren Bogen mit der linken Hand halten und entsprechende Instrumente spielen. Einige Linkshänder (z. B. Mark Knopfler, Gary Moore oder Noel Gallagher) spielen jedoch ganz normale Rechtshänder-Gitarren wie Rechtshänder (die Anschlaghand ist die rechte, die Greifhand die linke). Schließlich gibt es einige wenige Linkshänder (etwa Doyle Bramhall II), die eine normal rechtshändig bespannte Gitarre linkshändig umgekehrt halten und spielen oder eine Rechtshändergitarre die linkshändig bespannt ist, z. B. Jimi Hendrix. Zwölfsaitige (sechschörige) Gitarren Die zwölfsaitige Gitarre mit Stahlsaiten (englisch twelve-string guitar) wird wie ihr sechssaitiges Pendant gestimmt; zu den Saiten E, A, d und g kommt hier jedoch jeweils eine höhere Saite im Oktavabstand, die h-Saite und die e-Saite werden durch gleichgestimmte Saiten verdoppelt (Ee Aa Dd gg' hh e'e'). Die Saitenpaare werden auch Saitenchöre genannt, durch die sich im Vergleich zur sechssaitigen Gitarre ein anderes, durch die Oktavsaiten „aufgehelltes“ Klangbild und ein durch Schwebungseffekte aufgrund kleiner Stimmungsabweichungen bedingter Chorus-Effekt ergibt. Bereits um 1770 baute der Harfenmacher Nadermann eine zwölfsaitige Gitarre, die er Bissex nannte. Erfunden hatte sie der Gesang- und Gitarrenlehrer Vanhecke (oder van Hecke oder Van Eck; * um 1780 in Paris), der auch eine Méthode de jouer le Bissex dafür verfasste. Bekannte Interpreten, die hauptsächlich zwölfsaitige Gitarren verwenden, sind z. B. Leo Kottke, Melissa Etheridge, Roger McGuinn und John Denver. Gitarren mit erweitertem Tonumfang Weit seltener als sechssaitige sind Gitarren mit sieben, acht, neun oder zehn Saiten. Auch elf- und dreizehnsaitige, sogenannte Altgitarren, haben eine gewisse Verbreitung, vor allem in Schweden (altgitarr). Die recht häufige zwölfsaitige Gitarre hat zum herkömmlichen EADGHE-Saitensatz sechs Saitenpaare. Die vier tiefen Saiten (E, A, d und g) werden um höher gestimmte Oktavsaiten und die zwei hohen Saiten (h und e’) um gleich gestimmte Saiten ergänzt. Die so entstehenden, jeweils eng nebeneinander liegenden Saitenpaare werden zusammen gegriffen bzw. angeschlagen. So wird ein volleres Klangbild als bei der sechssaitigen Gitarre erzielt, durch minimale Verstimmungen der Doppelsaiten gegeneinander und der daraus resultierenden Phasenschwingungen ergibt sich ein sphärisch klingender Chorus-Effekt. Auch historische Zupfinstrumente (z. B. Pandora oder Orpheréon) hatten zuweilen mehr als sechs Saiten, in der Regel doppelchörig besaitet. Seit dem 19. Jahrhundert werden gezielt einchörige Instrumente mit mehr als sechs Saiten verwendet. Bekannte Beispiele sind der siebensaitige Heptachorde und der zehnsaitige Décachorde des französischen Gitarrenbauers René François Lacôte, für die die zeitgenössischen Gitarristen Ferdinando Carulli und Napoléon Coste eigene Lehrwerke verfassten. In Russland wurde die siebensaitige Gitarre in der ersten Hälfte des 19. Jahrhunderts durch die Gitarristen Ignatz Held und Andreas Sichra (1773–1850) populär gemacht und im 20. Jahrhundert durch Musiker wie Vladimir Maškewič (1888–1971), Wasil Juriew (1881–1962) und Michail Iwanow (1889–1953) repräsentiert. Bekannte Interpreten auf Gitarren mit erweitertem Tonumfang sind: siebensaitige Gitarre (im brasilianischen Choro als Violão de sete cordas): Dino 7 Cordas, Yamandu Costa, Raphaëlla Smits siebensaitige Gitarre im Jazz: Bucky Pizzarelli, George Van Eps achtsaitige Gitarre: Paul Galbraith, Raphaella Smits sowie Tosin Abasi und Javier Reyes zehnsaitige Gitarre: Narciso Yepes elfsaitige Gitarre: Göran Söllscher dreizehnsaitige Gitarre: Andreas Koch 42-saitige Pikasso-Gitarre: Pat Metheny Doppelhalsgitarre Eine Sonderform ist mit einem zweiten Hals ausgestattet; damit können verschiedene Stimmungen bespielt werden oder ein Hals kann eine zwölfsaitige Bespannung bieten. Instrumente mit einem dritten Hals sind selten. Bekannte Musiker, die eine Doppelhalsgitarre spielten, sind Jimmy Page, Don Felder und Stephen Stills; alle drei nutzten eine Gibson EDS-1275. Auch die Kontragitarre (Schrammelgitarre) hat zwei Hälse, wobei jedoch nur einer mit einem Griffbrett ausgestattet ist, während auf dem zweiten freischwingende Basssaiten als Bordun angebracht sind. Gitalele Auch Gitarlele, Guitalele oder Guitarlele genannt; siehe Gitalele. Guitare-basson Im Jahr 1846 schuf L. G. Warncke aus Nancy eine Gitarre mit Schnarr-Register. Weitere Gitarrenarten siehe :Kategorie:Gitarrenart Etymologie Der Name Gitarre (im 18. und 19. Jahrhundert in der bevorzugten Schreibung Guitarre) wurde aus dem Spanischen entlehnt, wobei spanisch guitarra über maghrebinisch- auf das altgriechische Wort κιθάρα (kithara) zurückgeht. Die kithara war jedoch keine Halslaute, sondern gehörte wie die lyra zu den Leiern der griechischen Antike. Bei kithara handelt es sich nach der Ansicht von Michael Kasha wiederum um die Hellenisierung eines altpersischen Namens für eine viersaitige Halslaute (). Geschichte Vorgeschichte Lauteninstrumente waren bereits vor 5000 Jahren in Gebrauch. Erste Instrumente dieser Art sind im Orient nachweisbar. Ein der europäischen Laute ähnliches Instrument ist bereits auf einem Relief aus dem Tempel des Hammurapi von Babylon (1792–1750 v. Chr.) zu finden. Ägyptische Zeichnungen zeigen Frauen, die Lauteninstrumente aus der Zeit der Pharaonen spielen. Ab dem Jahr 711 herrschten in Spanien die Mauren, welche aus ihrer Heimat ein bereits voll ausgereiftes Instrument mitbrachten, die Oud (arabisch al-oud „das Holz“), eine arabische Laute, die heute ohne Bünde gespielt wird. Mit der Ausbreitung mehrstimmiger Kompositionstechniken zunächst in der christlichen Kirchenmusik änderten sich auch die Anforderungen an die Lauteninstrumente. Die Mehrstimmigkeit forderte eine Weiterentwicklung der Bauform. Der Resonanzkörper wurde nun vorwiegend aus Brettchen zusammengeleimt und die Seitenteile nach außen gebogen, um dem Druck, der durch den angesetzten Hals ausgeübt wurde, standhalten zu können. Manche Instrumente hatten keinen ausgeprägt bauchigen Körper, sondern einen zunehmend flachen, wie wir es von den heutigen Gitarren her kennen. Aus der Oud entwickelte sich die Renaissancelaute in ähnlicher Bauweise mit Bünden: Saiten aus Darm wurden im richtigen Abstand um den Hals „gebunden“. Erste Vorgänger der Gitarre gelangten wie die arabische Laute im 8. Jahrhundert nach Spanien und von dort ins übrige Europa. Mittelalter und Renaissance Erste Gitarren sind seit dem 13. Jahrhundert nachweisbar. In den Cantigas de Santa Maria finden sich Abbildungen der Guitarra latina (auch quitarra latina und Guitare latine; „latinische Gitarre“) und der von den ehemaligen Eroberern stammenden Guitarra morisca (französisch auch Guitare moresque; „maurische Gitarre“). Um 1330 stellte der Dichter und „Erzpriester von Hita“ Juan Ruiz beide Instrumente gegenüber. Um 1349 wurden beide Gitarren (als Guiterre latine und Guiterre moresche) am Hof des Herzogs der Normandie gespielt. Autoren, welche die maurische Gitarre erwähnten waren der Komponist Guillaume de Machault (als [en-]morache) und um 1300 der Musiktheoretiker Johannes de Grocheo (als Guitarra saracenica).Vgl. auch www.brebru.com. Die Renaissancegitarre besaß – gemäß einem 1555 erschienenen Buch von dem spanischen Musiktheoretiker Juan Bermudo – meist vier Chöre (guitarra de quarto órdenes), seltener fünf (guitarra de cinco órdenes) oder gar sechs. Die im 16. Jahrhundert, vor allem in Frankreich benutzte Gitarre hatte anfänglich meist vier Saiten bzw. Chöre. Diese vierchörige spanische Gitarre hatte drei Doppelsaiten und eine einfache Saite und somit einen begrenzteren Umfang sowie in der Tabulatur-Literatur ein weniger anspruchsvolles Repertoire als die Laute und die auch „spanische Laute“ genannte (sechschörige) Vihuela, von der Bermudo schrieb, dass man, wolle man sie in eine (damals noch vierchörige) Gitarre verwandeln, ihr den ersten und sechsten Chor wegnehmen müsse. Der am aragonesischen Hof in Neapel wirkende franko-flämische Komponist und Musiktheoretiker Johannes Tinctoris vermutet in seiner Schrift De inventione et usu musicae aus dem Jahr 1484 den Ursprung der viersaitigen Renaissancegitarre in Katalonien. Die von ihm beschriebenen Instrumente gleichen jedoch noch eher einer Laute beziehungsweise der Guitarra morisca. Die Spanier entwickelten aus der Laute die Vihuela, welche die gleiche Besaitung, aber einen flachen Körper hat. Die spanische Vihuela der Renaissance ist die Vorform der heutigen Gitarre. Sie hat einen schmalen, achtförmig geschweiften Korpus, einen flachen Boden, einen gitarretypischen Hals mit Bünden und eine Wirbelplatte. In Spanien bestanden im 16. Jahrhundert die Vihuela und die kleinere und für ein anderes Repertoire genutzte, möglicherweise im 14. Jahrhundert aus der guitarra latina hervorgegangene, vierchörige Gitarre (guitarra de quarto órdenes) nebeneinander.The Baroque Guitar in Spain and the New World. Mel Bay Publications, Pacific/Missouri 2006, S. 1. Die Musik des 16. und 17. Jahrhunderts ist zum großen Teil in Form von Tabulaturen überliefert. Kompositionen (etwa intavolierte Lieder, Fantasien bzw. Ricercare und Villancicos) für die vierchörige Gitarre finden sich in Spanien 1546 bei Alonso Mudarra und 1554 bei Miguel de Fuenllana und zwischen 1551 und 1570 in französischen und italienischen Tabulaturausgaben von Robert Ballard und Adrian Le Roy, Melchior (de) Barberis (1549) und Pierre Phalèse. Weitere Kompositionsformen für die Gitarre der Renaissance waren die auch im Barockzeitalter gespielten Allemanden, Chaconnes, Folias, Romanescas und Tombeaus. Bevor sich in Italien die fünfchörige chitarra spagnuola etablierte, hatte die italienische Gitarre vor der Mitte des 16. Jahrhunderts noch vier Chöre zu sieben Saiten. Eine einfache Besaitung wurde nach französischem Vorbild Ende des 18. Jahrhunderts üblich. Barock Als in der Barockzeit die Gitarrenmusik unter Verwendung verschiedener rhythmischer Anschlagsarten (batteries) akkordbetonter wurde, gelangen nur bei der Guitarra die nötigen baulichen Anpassungen; die Vihuela starb aus. Auch diese Entwicklung vollzog sich auf spanischem Boden, mitgeprägt durch Gaspar Sanz (1640–1710) und seine Gitarrenschule (Instrucción de música sobre la guitarra española), und so wurde die Gitarre mit der Zeit als „Spanische Gitarre“ (spanisch guitarra española, italienisch chitarra [alla] spagnola oder chitarra spagnuola) bezeichnet – nun (laut Sanz und Doisi de Velasco durch Vicente Espinel in Madrid um die fünfte, höchste Saite ergänztJerry Willard (Hrsg.): The complete works of Gaspar Sanz. 2 Bände. Amsco Publications, New York 2006 (Übersetzung der Originalhandschrift durch Marko Miletich), ISBN 978-0-8256-1695-2, Band 1, S. 15.) fünfchörig (in Frankreich vierchörig) und im Gegensatz zur (auch fünfchörigen) Vihuela mit nur einer Saite im ersten Chor. Die ab der zweiten Hälfte des 16. Jahrhunderts (die Vihuela ablösend auch in Spanien) bevorzugte fünfchörige (gelegentlich auch sechschörige) Barockgitarre, die unter anderem mit der Quart-Terz-Stimmung A-d-g-h-e' mit zwei Oktav- und zwei Einklangchören gestimmt wurde,Vgl. auch Josef Zuth: Handbuch der Laute und Gitarre. 1926, S. 128 ('zur Guitarra española). gelangte im 17. Jahrhundert über Italien durch Francesco Corbetta nach Frankreich, wo sie am Hof von Ludwig XIV. ein beliebtes Musikinstrument wurde. Der deutsche Instrumentenbauer Joachim Tielke fertigte in Hamburg um 1684 solche Gitarren an, die (wie aus einer Beschreibung der Quinterna, einer fünfchörigen Gitarre, bei Michael Praetorius (1571–1621) in Syntagma musicum und aus einer Tabulatur von 1653 hervorgeht) auch im deutschsprachigen Raum bereits bekannt waren. Ein ähnliches Instrument wie die Quinterna bei Praetorius zeigt auch die „Quinternspielerin“ in einer Holzschnittfolge der neun Musen von Tobias Stimmer. In Italien unterschied man im 17. Jahrhundert die chitarra von einer kleineren chitarriglia. Mit dem Fortschreiten des Barock tendierte die Spielweise wieder von den batteries und dem (barocken) rasgueado (italienisch battuto oder battente (Vgl. den Begriff der Schlaggitarrre als „Chitarra battente“ oder „Guitare en bâteau“, chitarra battente oder Gitarra battente), englisch „strumming“), dem Schlagen von Akkorden, zum kontrapunktischen und Melodiespiel, dem punteado, bis ein endgültiger Bruch schließlich in die Frühklassik mündete. Während dieser Zeit änderte sich die Besaitung der Gitarre ständig, da nun die Melodie, als tragendes Element, in den Vordergrund trat und viel experimentiert wurde. Eine auch bei der Flamencogitarre angewendete Technik war die Verwendung von (erstmals von Gaspar Sanz als Klangeffekt so genannten) campanelas („kleine Glocken“) als Klangeffekt, bei dem Leersaiten mit Griffkombinationen auf tieferen Saiten, aber in höheren Grifflagen kombiniert werden.Frank Koonce: The Baroque Guitar in Spain and the New World. Mel Bay Publications, Pacific, Mo. 2006, ISBN 978-0-7866-7525-8, S. 5 und 19. Kurz vor 1800 fand eine Art Ringtausch zwischen Mandora und Gitarre statt. Die Gitarre, die als Barockgitarre meist nicht linear, sondern rückläufig (reentrant tuning) gestimmt worden war (zum Beispiel e' – h – g – d' – aVgl. auch Frank Koonce: The Baroque Guitar in Spain and the New World: Gaspar Sanz, Antonio de Santa Cruz, Francisco Guerau, Santiago de Murcia. Mel Bay Publications, Pacific, Mo. 2006, ISBN 978-0-7866-7525-8, S. 3–5 zu den spanischen, französischen und italienischen Stimmungen.) und somit (ähnlich wie bei der Ukulele) zum Melodiespiel auf den Basssaiten (mit Daumen) Gelegenheit gab, übernahm die sechste Saite und die Stimmung der Mandora (e' – h – g – d – A – G, später auch e' – h – g – d – A – E). Die Mandora dagegen übernahm von der Gitarre die inzwischen eingeführte Besaitung mit einzelnen Saiten statt Chören. Ein später Erbe dieser Entwicklung auf Seiten der Mandora war die sogenannte Gitarrenlaute, die durch die fehlende Doppelchörigkeit aber nicht die Möglichkeit des selektiven Spielens der in Oktaven gestimmten Doppelsaiten einer Barockgitarre hat. Im 17. und 18. Jahrhundert fand die Gitarre wie die Laute auch Verwendung als Generalbassinstrument.Zur Gitarre als akkordisches Begleitinstrument vgl. auch James Tyler: The Role of the Guitar in the Rise of Monody: The Earliest Manuscripts. In: Journal of Seventeenth-Century Music. Band 9, Nr. 1, 2004. Online: Beispiel aus dem 16. Jahrhundert. So gelehrt etwa 1674 von Gaspar Sanz, 1680 von Nicola Matteis und 1714 Santiago de Murcia. Weitere Komponisten, welche die Gitarre im Barockzeitalter populär machten, waren unter anderem Giovanni Paolo Foscarini (1630), Girolamo Montesardo (Nuova inventione d’intavolatura […], Florenz 1606) und Robert de Visée sowie um 1674 Giovanni Battista Granata (um 1622 – 1687), ein Schüler von Francesco Corbetta, um 1694 Francisco Guerau (Lehrer von Santiago de Murcia), der flämische Komponist François Le Cocq, um 1677 Lucas Ruiz de Ribayaz (1630–1672), ein Nachahmer von Gaspar Sanz, um 1646 der Komponist und Herausgeber Carlo Calvi (um 1610 – nach 1646), um 1655 der in Bologna geborene Angelo Michele Bartolotti (um 1615 – 1681) und um 1692 Ludovico Roncalli. Zu den französischen Komponisten für die Gitarre der Barockzeit gehört auch François Campion (1705 und 1731). Auch der Böhme Johann Anton Losy von Losinthal war (um 1700) ein Vertreter der Gitarrenmusik dieser Zeit.Vgl. auch Frank Koonce: The Baroque Guitar in Spain and the New World: Gaspar Sanz, Antonio de Santa Cruz, Francisco Guerau, Santiago de Murcia. Mel Bay Publications, Pacific, Mo. 2006, ISBN 978-0-7866-7525-8. In Spanien veröffentlichte der Musikprofessor Fernando (de) Ferandiere (etwa 1740–1816) noch 1799 ein Lehrwerk für eine sechschörige Barockgitarre, für die er auch zahlreiche Werke komponiert hatte. Klassik und Romantik Auf diese Weise wandelte sich Ende des 18. Jahrhunderts die (vier- bis) fünfchörige Barockgitarre bzw. Spanische Gitarre, wie sie etwa von Antonio Stradivari in Cremona (zum Beispiel 1688) gebaut wurde, zur sechssaitigen (und einchörigen) Gitarre des 19. Jahrhunderts, mit einer robusteren und im Vergleich zu den Verzierungen der Barockgitarre funktionaleren Bauweise und, ablesbar auch in der Gitarrenliteratur ab etwa 1750, Möglichkeiten zu einer differenzierten Tonbildung und gleichzeitig einem die tiefen Töne stärker als zuvor hervorhebenden sowie auch durch eine lineare Stimmung Akkordumkehrungen (vgl. auch Voicings) beim Strumming erst richtig hörbar machenden und sonoreren, der Musik der Romantik und des Impressionismus entsprechenden Klang. Für den Klang bedeutsam war auch der Einbau von Resonanzleisten, welche die Schwingungen auf den gesamten Körper übertrugen, wodurch die Töne lauter wurden und sogar den Einsatz der Gitarre in kleineren Orchestern[Peter Päffgen]: Sammlung historischer Quellen: Hector Berlioz. In: Gitarre & Laute. 2, 3, 1980, S. 22–24. ermöglichte. Zu den ersten Lehrwerke für die klassische Gitarre (mit sechs Saiten) gehörten die von Federico Moretti und das 1825 von Dionisio Aguado veröffentlichte. Ihre klassische Epoche durchlebte die Gitarre hauptsächlich in Wien und Paris. In Wien prägte Johann Georg Stauffer das Wiener Gitarrenmodell. Später als in diesen beiden Städten bildete sich in London ein weiteres Zentrum der Gitarre europäischen Ranges aus. Zu den international wirkenden Komponisten der Gitarre zählte auch der Geigenvirtuose Niccolò Paganini. Die Hauptkomponisten für die sechssaitige Gitarre in ihrer Blütezeit waren neben anderen in Paris Fernando Sor, Ferdinando Carulli, Dionisio Aguado, Pierre-Jean Porro und Napoléon Coste (1805–1883) sowie in Wien Mauro Giuliani, Johann Kaspar Mertz und Johann Dubez. In London waren zahlreiche Gitarristen, auch aus Deutschland stammend, wohnhaft. Die bekanntesten unter ihnen waren Leonhard Schulz, Wilhelm Neuland, Luigi Sagrini (* 1809), Felix Horetzky (1796–1870), Ferdinand Pelzer (1801–1861) und dessen Tochter Catharina Josepha Pratten (1821–1895). Zu den bedeutendsten Gitarrenvirtuosen nach Giulianis Lebenszeit zählte Giulio Regondi (1822–1872); er lebte ebenfalls die längste Zeit seines Lebens in London. Schon in der Romantik führten jedoch einige Entwicklungen wieder nach Spanien. Der Gitarrist Francisco Tárrega (1852–1909) beschritt dort mit seinen bis heute üblichen Griff- und Anschlagtechniken neue Wege. Zur gleichen Zeit vervollkommnete der Gitarrenbauer Antonio de Torres (1817–1892) die Gitarre in Form und Abmessungen, Anordnung der (fächerförmigen) Decken-Verleistung und mechanischen Details. Die moderne Klassische Gitarre Die Bezeichnung Klassische Gitarre wurde, abgesehen von russischen Veröffentlichungen zur Gitarre zwischen 1904 und 1915, erst nach 1946 durch die Zeitschrift Guitar Review eingeführt. Die Torres-Gitarre aus dem 19. Jahrhundert ist bis heute die Grundlage einer jeden klassischen Konzertgitarre geblieben. Weiterentwicklungen, die heute Standard beim Bau moderner klassischer Konzertgitarren sind, entstanden auch noch in den ersten Jahrzehnten des 20. Jahrhunderts u. a. in der Zusammenarbeit zwischen den Gitarrenvirtuosen Miguel Llobet (1878–1938) und Andrés Segovia (1893–1987) mit den Gitarrenbauern Manuel Ramírez (1864–1916) und Hermann Hauser I (1882–1952). Bedeutende Gitarrenbauer des 20. Jahrhunderts sind auch die Spanier Santos Hernandez (1870–1942), Domingo Esteso (1884–1937), Ignacio Fleta (1897–1977), Marcelo Barbero (1904–1956) und José Ramirez III (1922–1995), die deutschen Gitarrenbauer Hermann Hauser II (1911–1987) und Richard Jacob „Weißgerber“ (1877–1960) sowie die Franzosen Robert Bouchet (1898–1986) und Daniel Friederich (1932–2020). Im 20. Jahrhundert gab es – auch bedingt durch Elektronik – viele Neuerungen wie beispielsweise die Bottoni-Greci-Gitarre. von 1987. Spieltechniken Grundsätzlich unterscheidet man zwischen Spieltechniken, die mit der Greifhand oder der Anschlagshand ausgeführt werden. Einige Techniken werden in der Praxis auch mit beiden Händen angewendet, z. B. Tapping. Siehe auch: Technik der klassischen Gitarre. Techniken der Anschlagshand Die die Tongebung (den Anschlag) bewirkende Anschlagshand, bei Rechtshändern ist es die rechte, ist die „führende“ Hand. Sie gibt oftmals Rhythmus und Geschwindigkeit vor und produziert die Töne durch Anschlagen der Saiten. Die Finger der Anschlagshand werden (nach spanischem Vorbild) mit p (pulgar, Daumen), i (index, Zeigefinger), m (medio, Mittelfinger), a (anular, Ringfinger) und M (meñique, auch q, ch, l, k und e, bei Dionisio Aguado c, kleiner Finger) bezeichnet. Generell lassen sich für die Anschlagshand bzw. Zupfhand folgende Spieltechniken unterscheiden: Zupfen, Punteado oder Fingerspiel (englisch ), Schlagen oder Durchstreichen (englisch , in älterer deutscher Literatur auch Ausstreifen), wobei zwischen Abschlag in Richtung der höchsten Saite, englisch Downstroke (Zeichen: ), und Aufschlag in Richtung der tiefsten Saite, englisch Upstroke (Zeichen: ), unterschieden wird.Jürgen Kumlehn: 99 Rock-Riffs for Guitar. AMA, Brühl 2013, ISBN 978-3-89922-180-0, S. 75. Dämpfen''' (englisch ; zur Erzeugung abgedämpfter (dumpfer) pizzicatoartiger Töne, englisch muffled notes, französisch étouffées, spanisch apagado, abgekürzt Pizz. muff. oder auch Pizz.). Dieses Pizzicato wird durch Anschlagen von mit dem Handballen der Anschlagshand ein paar Millimeter vor dem Steg abgedämpfter Saiten erzielt. Man bezeichnet dies auch als Palm Mute, Palm-Muted oder Palm Muting (P.M.). (Pizzicato/Palm-muting wird häufig in Metal- und Rocksongs verwendet, ist aber auch bei der klassischen Gitarre ein gern verwendeter Effekt). Zudem werden auch bei Pausen die Saiten mit der Anschlagshand gedämpft. Das Dämpfen mit der Anschlagshand kann in der Tabulatur durch ein „X“ angezeigt werden und wird insbesondere bei sogenannten Ghost Notes und Dead Notes eingesetzt. Staccato, ein Abdämpfen unmittelbar nach dem Anschlag mit einem Finger der Anschlagshand oder durch geringe Anhebung der entsprechenden Finger der Greifhand perkussive Effekte wie Tambora (Perkussion), abgekürzt tamb., wobei ein Akkord durch Aufschlagen des Daumenballens oder anderer Finger der rechten Hand nahe dem Steg zum Klingen gebracht wird. Diese Techniken lassen sich in verschiedene Techniken aufteilen: Beim Zupfen werden einzelne Saiten mit den Fingern (Fingerkuppen und/oder Fingernägeln) oder einem Plektrum angeschlagen. Auf diese Weise können nicht nur einstimmige Tonfolgen, sondern auch mehrstimmige Sätze gespielt werden. Um höhere Geschwindigkeiten zu erreichen und das Spiel flüssiger klingen zu lassen, wird dabei meistens eine Form des Wechselschlags eingesetzt: Zwei oder mehr Finger schlagen die Saiten abwechselnd an. Eine besondere Form des Wechselschlags ist das Tremolo, bei dem drei oder mehr Finger in schneller Folge hintereinander dieselbe Saite anschlagen. Diese Technik ist häufig in spanischer (insbesondere beim Flamenco) und lateinamerikanischer Gitarrenmusik sowie in härteren Formen von Heavy Metal zu hören. Man unterscheidet darüber hinaus die Anschlagsarten (spanisch für „ziehend“) und (spanisch für „aufstützend“), die die Klangeigenschaften des produzierten Tones verändern. Beim tirando wird nur die Saite berührt, die gerade angeschlagen wird, beim apoyando kommt der Finger nach dem Anschlag auf der nächstunteren Saite zu liegen. Eine weitere Form der Klangerzeugung ist der einhändige Flageolett-Anschlag, bei dem nach Zupfen der Saite diese sofort wieder mit einem anderen Finger (normalerweise p) abgedämpft wird. Diese kann man auch bei gezogener Saite spielen, so dass ein pfeifender Ton entsteht – die genaue Funktionsweise des Flageoletts und das Ziehen der Saite wird weiter unten ausführlicher erklärt. Zupfen: einzelne Saiten werden mit den Fingern gezupft bzw. mit dem Plektrum angeschlagen. Dies kann auch in Kombination von Plektrum und Fingern erfolgen. Auf diese Weise ist auch ein mehrstimmiges Melodiespiel möglich. Man unterscheidet insbesondere die folgenden Zupftechniken: Apoyando, spanisch für „aufstützend, anlehnend“: angelegter Anschlag oder Stützschlag, bei dem der Finger nach dem Anschlagen einer Saite an der nächsttieferen (bzw. nächstunteren) abgestoppt wird, d. h. anlegt. Diese Technik erzeugt einen kräftigen, voluminösen Ton. Das Gegenteil von Tirando. Tirando, span. für werfend, schießend, ziehend: freier Anschlag, bei dem der Finger nach dem Anschlagen einer Saite die nächste nicht berührt. Das Gegenteil von Apoyando. Schlagen (auch Strumming): mehrere Saiten werden gleichzeitig angeschlagen. Dies kann mit einem einzigen oder mehreren Fingern und/oder mit einem Plektrum erfolgen. So lassen sich auch Akkorde spielen. Besonders bedeutend ist die folgende Schlagtechnik: Rasgueado: eine vor allem in der spanischen Flamenco-Musik angewandte Technik, bei der in der Regel drei oder vier Finger (außer dem Daumen) in schneller Folge dergestalt über die Saiten schlagen, dass die Anschläge in hoher Geschwindigkeit aufeinander folgen und einen typisch rasselnden Effekt produzieren. Eine frühe bzw. einfache Form des Ragueado ist das Durchstreichen eines Akkords vom tiefsten zum höchsten Ton mit dem Daumen und nachfolgendem Durchstreichen (auch Ausstreifen genannt) vom höchsten zum tiefsten Ton mit dem Zeigefinger. Wechselschlag: Bezeichnung für unterschiedliche Techniken, mit denen Melodien und Läufe auf Tempo gebracht werden können: In der Regel den abwechselnden Auf- und Abschlag (siehe oben Schlagen). Bei der klassischen Spieltechnik das abwechselnde Benutzen verschiedener Finger – meistens Zeige- und Mittelfinger – beim Spielen von Melodien. Beim Spiel einzelner Saiten mit dem Plektrum das abwechselnde Anschlagen der Saite nach unten und oben mit dem Plektrum (diese Technik wird auch alternate picking genannt). Two-Hand-Tapping Auch right hand tapping genannt: ein erweitertes normales Tapping, bei dem die rechte Hand zusätzlich zum Einsatz kommt. Alzapúa (spanisch), auf Plektrumart (von púa „Plektrum“, und alzar „etwas nach oben bewegen“), d. h. der Daumen wird wie ein Plektrum verwendet: Anschlagen von mehreren Saiten durch Ab- und Aufschlag des Daumens, häufig in Dreiergruppen: Einzelne Basssaite Apoyando, danach ein bis vier Diskantsaiten abwärts, ein bis vier Diskantsaiten mit der Nagelseite des Daumens aufwärts. Die Technik findet (nur) im Flamenco Verwendung. Golpe, span. Schlag (perkussiver Effekt): Schlagen mit den Fingern auf die Decke der Gitarre, bzw. den Golpeador. Sweep Picking (auch „sweeping“): mehrere Saiten werden mit einem kontrolliert „durchgleitenden“ Plektrumanschlag gespielt. Im Gegensatz zum Akkord klingen die Saiten aber alle einzeln, was durch Dämpfen mit der Greifhand erreicht wird. Mit Hilfe des sweep pickings kann man schneller spielen und erreicht etwas flüssigere Übergänge zwischen den einzelnen Noten. Tremolo: sehr schnelle Wiederholung eines Tones (häufig: p-a-m-i-Anschlag), durch die der Eindruck eines durchgehenden Tones vermittelt wird. Die Technik ist besonders von der Mandoline her bekannt und häufig in spanischer und lateinamerikanischer Gitarrenliteratur zu sehen. Greifhandtechniken Vibrato: der greifende Finger wird in einer mehr oder weniger schnellen „Zitterbewegung“ entlang der Halsachse leicht hin und her bewegt. Dadurch ändert sich die Tonhöhe nach oben hin in einer leichten Schwingung. Man unterscheidet dabei das klassische Vibrato (die Vibratobewegung wird parallel zur Saite ausgeführt, es entsteht ein eher dezenter Effekt) und das meistens von E-Gitarristen benutzte Vibrato durch Ziehen (Bending) der Saiten in vertikaler Richtung entlang des Bundstäbchens nach oben und unten. Mit der Anschlagshand erfolgt hingegen das mittels eines Vibratohebels und einer whammy bar erzeugte „Vibrato“, wobei die Saiten periodisch gedehnt und entspannt werden (vom kurzen Herunterdrücken des Hebels, „V dip“, bis vollkommen Entspannen der Saiten, „Bar Dive“ bzw. „Dive Bomb“).Dämpfen: Durch Setzen der Greiffinger auf die Bünde (französisch Étouffez) kann eine dumpfe, perkussive Klangwirkung bzw. eine so genannte Dead-Note (in Noten und Tabulatur dargestellt durch ein „x“) erzielt werden. (Ein Beispiel dafür ist in Nirvanas Smells Like Teen Spirit von der Rhythmusgitarre zu hören oder beim Intro von AC/DCs Back in Black). Daneben werden, insbesondere bei verzerrtem und lautem E-Gitarrenspiel, auch nichtgezupfte Saiten gedämpft, um deren Mitschwingen und damit Nebengeräusche und eine unerwünschtes akustische Rückkopplung (Feedback) zu verhindern. Beim Rake werden die ersten paar Saiten werden vor dem eigentlichen Ton abgedämpft, aber trotzdem mit angeschlagen. Dadurch entsteht ein perkussiver Effekt.Flageolett: eine Technik, um Obertöne einer Saite oder eines gegriffenen Tones zu erzeugen. Durch leichtes Berühren der Saite an bestimmten Punkten erklingt ein höherer Ton anstatt des eigentlich angeschlagenen Tones. Bei dieser Technik berührt ein Finger nur leicht bestimmte Punkte der Saite und verlässt ganz kurz nach dem Anschlag wieder die Saite. Diese Technik ist nur an bestimmten Punkten der Saite für das Flageolett sinnvoll einsetzbar: Zwölfter Bund = 1/2 der Saitenlänge = Oktave Siebter Bund = 1/3 der Saitenlänge = Quinte (auch 19. Bund = 2/3 Saitenlänge) Fünfter Bund = 1/4 der Saitenlänge = Doppeloktave kurz vor dem vierten Bund = 1/5 der Saitenlänge = Doppelterz, auch kurz vor dem 9. oder am 16. Bund (ebenfalls die nächsthöhere Großterz) Flageoletts sind auch an anderen Stellen möglich, sind jedoch je nach Bauart der Gitarre mehr oder weniger leicht darstellbar. Sie bilden dann nicht mehr so klare einzelne Töne, sondern es erklingen Mehrklänge. Man unterscheidet natürliche und künstliche Flageoletttöne (Auf den leeren Saiten liegen die natürlichen, auf den griffverkürzten die künstlichen): Natürliche Flageoletts (auch „natural harmonics“): Bei diesen werden Leersaiten verwendet, und es wird an den oben genannten Stellen gedämpft/gegriffen. Künstliche Flageoletts (auch „artificial harmonics“): Bei diesen werden die Töne saitenverkürzend im Halbierungspunkt gegriffen. Die Anschlagspunkte verschieben sich um jeweils zwölf Bünde (Oktav-Flageolett), es können aber beliebige Töne als Flageolett erzeugt werden. Wenn mit der Greifhand am 3. Bund gegriffen wird, ist der Anschlagspunkt also am 15. Bund (12+3). Die Anschlagshand muss hier gleich doppelte Arbeit verrichten: der Zeigefinger dämpft die Saite und ein anderer Finger (der Daumen, der Ringfinger oder der Kleinfinger) schlägt die Saite an. Was beim natürlichen Flageolett von zwei Händen verrichtet wird (Abdämpfen + Anschlagen), muss hier also von einer geleistet werden, da die eine Hand mit dem Greifen beschäftigt ist. Da beide Hände involviert sind, liegt hier keine reine Greifhandtechnik vor. Eine andere Methode zur Erzeugung künstlicher Flageoletts besteht darin, die gegriffenen Töne zwölf Bünde höher durch Tapping anzuschlagen. „Aufschlagbindung“ (engl. Hammer-On): ein Finger der Greifhand schlägt kräftig auf die Saite. Die Tonerzeugung erfolgt also „klopfend“ durch die Greifhand. „Abzugsbindung“ (engl.: Pull-Off): Ein Finger, der vorher einen Ton gegriffen hat, lässt die Saite schnell los bzw. zupft sie an. Dadurch erklingt der Ton, der an einem tieferen Bund auf dieser Saite gegriffen ist, oder aber der Ton der leeren Saite (= Zupfen mit der linken Hand).Ziehen (auch „bending“): Man greift eine Saite und zieht oder schiebt diese mit dem greifenden Finger entlang der Bundachse, wodurch der momentan erklingende Ton sich stufenlos dem angepeilten Zielton annähert, bis dieser schließlich erklingt.Glissando (auch englisch Slide „Gleiten“'): der Finger gleitet von einem Bund zu einem anderen, wobei die Saite heruntergedrückt bleibt. Im Notenbild wird der Gebrauch des Gleit- oder Schleiffingers durch sogenannten Führungsstriche (gerade Bindungsstriche) kenntlich gemacht. Die Technik wird häufig im Blues mit einem Röhrchen, dem Bottleneck gespielt. Dieser steckt auf einem Finger der Greifhand. Klassische Haltungsvarianten Die Gitarre wird bei der klassischen Haltung auf dem Oberschenkel auf Schlaghandseite abgestützt. Die untere Einbuchtung im Korpus kommt auf dem Oberschenkel der Greifhandseite zu liegen. Der Hals zeigt dann zur Greifhandseite hin. Es ist möglich, mit einer Fußbank das Bein der Greifhandseite um einige Zentimeter zu erhöhen, damit eine bessere Sitzhaltung erreicht werden kann. Dabei zeigt der Hals etwa im Winkel von 45° nach oben. Alternativ kann der Fuß der Greifhandseite auf dem Boden bleiben, wenn zwischen dem Auflagepunkt des Gitarrenkorpus und dem Bein der Greifhandseite eine Gitarrenstütze oder ein Kissen angebracht wird, womit ebenfalls die Position des Halses erhöht und eine optimale Haltung erreicht werden kann. Ergonomische Nachteile der Fußbankhaltung wie zum Beispiel der damit einhergehende Beckenschiefstand, die Verdrehung oder Neigung des Oberkörpers in Richtung der Greifhand und die Einengung des Zwerchfells durch das hochgestellte Bein sind mit Gitarrenstütze oder einem speziell geformten Kissen vermeidbar. Der Ellenbogen der Greifhandseite sollte entspannt und um etwa 90 Grad abgewinkelt sein. Der Unterarm der Anschlagshand sollte in der Nähe des Ellenbogens auf dem Zargenrand liegen. Die Greifhand sollte so positioniert werden, dass noch etwas Platz zwischen dem Hals und dem Handgelenk ist. Der Daumen sollte auf der Rückseite des Griffbretts etwa in der Mitte aufgesetzt werden.(Ein Überstehen des Daumens über den Griffbrettrand wird bei der schulmäßigen Haltung vermieden, allerdings erlaubt ein solcher „Fuhrmannsgriff“ beim Spiel der E-Gitarre unter Umständen ein gutes Vibrato und sicheres Saitendämpfen). Beim Greifen der Saiten ist zu vermeiden, dass die Fingergelenke der Greifhand durchgedrückt, also entgegen ihrer natürlichen Abknickrichtung gedehnt werden; diese für den Anfänger möglicherweise anstrengende Handhaltung kann durch etwas Übung leicht aufrechterhalten werden, sie ist für ein präzises Spiel und viele Techniken der Greifhand unverzichtbar. Beim Greifen eines „Barrégriffes“, also beim Greifen mehrerer Saiten mit nur einem Finger, sollte der durchgestreckte Finger nahe am Bundstäbchen angesetzt werden. Alternativ zur klassischen Haltung finden sich unter anderem das Hochstellen mittels Fußbänkchen des Oberschenkels der Schlaghandseite stattdessen der Greifhandseite („Manolo-Sanlúcar-Haltung“), oder das Spiel bei beidseits nicht erhöhten Oberschenkeln („Gitano-Haltung“), das Überschlagen des Unterschenkels der Schlaghandseite (statt – wie bei der häufigsten bei Flamencogitarristen anzutreffenden Haltung – des Oberschenkels) über den Oberschenkel der Greifhandseite („Paco-de-Lucía-Haltung“), das Stellen der beiden Gitarrenkörperrundungen (statt der Zargenbuchtung auf einen Oberschenkel) auf beide Oberschenkel, von denen einer mittels Fußbänkchen erhöht wird („Sabicas-Haltung“) und (als traditionelle Haltung beim Flamenco) das Stellen des unteren Gitarrenkörpers statt der Zargenausbuchtung auf den Oberschenkel. Die traditionelle Haltung des Flamencogitarristen ist jedoch die mit zwischen Oberschenkel und Oberarm eingeklemmter Gitarre bei waagerecht gehaltenen Oberschenkeln. Notation Stücke für Gitarre werden sowohl in Tabulatur, oft in speziellen Gitarrentabulaturen, als auch (seit etwa 1750) auch in Noten schriftlich festgehalten. Ein die Stimmführung erleichternder spezieller Notensatz für Gitarre (wie er sich später auch bei Mauro Giuliani findet) wurde erstmals zwischen 1779 und 1802 von dem französischen Gitarristen Jean-Baptiste Phillis (* um 1751; † 1823) verwendet. Die Noten für Gitarre werden im oktavierten Violinschlüssel notiert, erklingen also eine Oktave tiefer. Die Tabulaturschreibweise, welche die Saiten der Gitarre nachbildet, geht auf die Lautenmusik der Renaissance zurück. Während klassische Gitarrenstücke bevorzugt in Noten angeboten werden, ist eine moderne Gitarrentabulatur für Musik aus den Bereichen Rock, Pop und Folk populär. Dem Gitarrenspieler werden oft beide Varianten (wie im Bild dargestellt) angeboten. Wie in der übrigen Musikliteratur wurden für neuartige Klangeffekte der Neuen Musik im 20. Jahrhundert (z. B. in Kompositionen von Xavier Benguerel, Alberto Ginastera, Roman Haubenstock-Ramati, Leo Brouwer, Hans Werner Henze und Hans-Martin Linde) auch für die Gitarre neue Formen der Notation entwickelt. Elektrische Gitarren Im Gegensatz zur akustischen Gitarre werden bei einer elektrischen Gitarre (Elektro-Gitarre, E-Gitarre) die Saitenschwingungen über elektrische ferromagnetische Tonabnehmer (Pick-up) oder über Piezokristalle abgenommen und elektronisch verstärkt, üblicherweise mit Gitarrenverstärkern. Der Korpus ist zumeist massiv. Außerdem gibt es elektroakustische Gitarren. Dabei handelt es sich um akustische Gitarren mit eingebautem Tonabnehmer. Dadurch kann der Ton wie bei der elektrischen Gitarre über einen Verstärker ausgegeben werden. Jazzgitarre Als Urform der Jazzgitarre (auch Plektrumgitarre oder Schlaggitarre genannt) wird das 1923 hergestellte Modell L-5 der Gibson Mandolin-Guitar Manufacturing Company in Kalamazoo/USA angesehen. Für damalige Verhältnisse wartete die Gitarre mit Besonderheiten auf, die den Standard für alle danach gefertigten Instrumente dieses Genres bestimmen sollten. Dies war ein nach Vorbild des Geigenbaus hergestellter Korpus mit gewölbtem Boden und gewölbter Decke (Archtop). Anstelle der sonst runden oder manchmal ovalen Schalllöcher waren zwei F-Löcher in die Decke eingearbeitet. Die Stahlsaiten waren in einem trapezförmigen Saitenhalter aus Metall am unteren Korpusende verankert, welche über einen zweiteiligen und damit höhenverstellbaren Steg führten. Der Hals – bis dahin in Höhe des 12. Bundes mit dem Korpus verbunden – gab bei der L-5 volle 14 Bünde frei. Um dem Saitenzug des nun längeren Halses entgegenzuwirken, zog Gibson in einer Nut längs des Halses einen Stahlstab ein, der an seinem Austritt, unter dem Sattel auf der Kopfplatte, über eine Gewindemutter noch zusätzlich verstellbar war. Die Firma hatte lange Zeit ein Patent auf diese Konstruktion. In der musikalischen Entwicklung verdrängte die Jazzgitarre das bis dahin verbreitete Banjo. Es wurde zwar im traditionellen Jazz weiterhin eingesetzt, musste aber mit Anbruch der Swing-Ära das Feld der „edler“ klingenden Gitarre überlassen, die von da an in keiner Big Band und keinem Tanzorchester fehlen durfte. Problematisch für den Gitarristen jener Tage war jedoch die Situation, sein Instrument gegen die vorherrschenden Lautstärken in mittleren und großen Orchestern hörbar in Szene zu setzen. Der Instrumentenbau reagierte, indem die Resonanzkörper der Jazzgitarren zunehmend vergrößert wurden. Von den damals 16" (untere Korpusbreite) der ersten L-5 betrugen die Maße gegen Ende der 1930er Jahre 18" bei Gibsons Super 400 und bei einigen Modellen von Epiphone und Stromberg sogar 19". Wirkliche Abhilfe schafften hier die ebenfalls in den 1930er Jahren begonnenen Versuche, die Schwingungen der Stahlsaiten durch elektromagnetische Tonabnehmer zu erfassen und diese von Verstärkern aus der frühen Radiotechnik übertragen zu lassen. Diese ersten Tonabnehmer wurden entweder freischwebend mittels entsprechender Halterungen zwischen Decke und Saiten platziert oder direkt auf die Decke montiert. Damit war es Jazzgitarristen möglich, neben den Aufgaben in der Rhythmus-Sektion nun auch als Solist aufzutreten. Die erste industriell in Serie gefertigte Jazzgitarre mit fest montiertem Tonabnehmer war die 1936 eingeführte Gibson ES-150. Der US-Jazzgitarrist Charlie Christian wurde mit diesem Modell zum Pionier des „bläserartigen“ Spiels (Läufe, Melodielinien und Soli) auf der elektrisch verstärkten Gitarre. Er ist besonders in Aufnahmen von 1939 bis 1941 mit Benny Goodmans Combo-Besetzungen zu hören. Nach Ende des Zweiten Weltkriegs ergaben sich weitere Veränderungen im Bau der Jazzgitarre. Zum Spiel in den oberen Lagen, also aufwärts des 14. Bundes, musste die angrenzende Korpusflanke stets überwunden werden. Als Neuerung wurden Instrumente mit einem „Cutaway“ ausgestattet, einer Ausformung an der beschriebenen Stelle in den Korpus, womit die linke Schulter der Gitarre niedriger liegt als auf der rechten Seite. Der so gewonnene Raum gestattet der Greifhand auch oberhalb des 14. Bundes noch bequemes Spiel. Die dem Geigenbau entlehnten Wölbungen des Bodens und der Decke mussten aus entsprechend massiven Holzplanken herausgearbeitet werden, was hohe Handwerkskunst verlangte und deshalb auch sehr zeitaufwendig war. So ging man dazu über, Böden, Decken und Zargen aus Sperrholz zu fertigen, die dann in speziellen Pressmaschinen geformt wurden. Die sonst dazu verwendeten Hölzer (meistens Ahorn und Fichte) bildeten nur noch die äußere Furnierschicht, so dass der optische Eindruck nach dem Finish keinen Unterschied zur anderen Bauweise erkennen lässt. So konnten Gitarren schneller und kostengünstiger hergestellt werden. Für Spitzenmodelle kam diese Produktionsweise nicht zum Tragen, wenngleich massiv hergestellte Decken auch mit Zargen und Böden aus Sperrholz kombiniert wurden. Die Sperrholzgitarren klingen in der rein akustischen Anwendung mit den aus Massivhölzern hergestellten Instrumenten nicht gleichwertig. Doch dieser Vergleich trat zunehmend in den Hintergrund, da die Jazzgitarren immer häufiger nur noch elektrisch verstärkt gespielt wurden. Dazu hatten die namhaften Hersteller eigene Tonabnehmer (Pickups) im Programm, wie Gibson seinen „P 90“ oder die „New Yorker“ Pickups bei Epiphone. Andere ließen sich von Firmen wie DeArmond (z. B. Gretsch) beliefern, um die Elektrik ihrer Gitarren mit diesen Produkten auszustatten. Allerdings beginnt 1950 die Dekade, in der Gibson mit der Les Paul und der ES 335 Furore machte und die radikal neukonzipierten Gitarren von Leo Fender aus Kalifornien den Markt gewaltig belebten. Diese Instrumente revolutionierten den Gitarrenbau und setzten Maßstäbe in einer Nachhaltigkeit, die bis in die heutige Zeit reichen. Die damit einsetzende Jagd nach Sustain, Effekten und Overdrive war nie das Terrain der Jazzgitarre. Dass sie trotz dieser Entwicklung von den führenden Herstellern weiterhin gefertigt wurde, hatte nicht nur traditionelle Gründe. Kein anderer Gitarrentyp bringt in der akustischen Spielweise perkussivere Anschläge und überträgt sauberer filigrane Rhythmusarbeit. Elektrisch verstärkt, mit guten Pickups, liefert sie aufgrund ihrer Resonanzstruktur klare, runde Töne mit Substanz. Mit diesen Vorzügen konnte die Jazzgitarre seit ihrer Entstehung immer neue Generationen von Musikern für sich begeistern. Halbresonanzgitarre Die Halbresonanzgitarre (auch Semiakustik-Gitarre bzw. Halbakustikgitarre genannt) ist eine Variante der elektrisch verstärkten Vollresonanz-Gitarre und unterscheidet sich von dieser durch die regelmäßig geringere Korpustiefe. Gelegentlich sind auch die übrigen Korpusmaße kleiner ausgelegt als bei der Vollresonanz-Gitarre. Die reine Halbakustik-Bauweise wird als Hollow Body bezeichnet. Daneben ist die Verarbeitung eines massiven Mittelbalkens (Center-Block / Sustain-Block) anzutreffen, welcher in der Verlängerung des Halses bis an das untere Korpusende reicht und diesen in zwei Kammern teilt. Diese Instrumente werden häufig unter der Bezeichnung Semi-Solids geführt, da das Klangverhalten der massiv gebauten E-Gitarre (Solid-Body) näher kommt als der rein akustischen Version. Die Bezeichnung Semi-Solids wird auch für massiv gebaute E-Gitarren verwendet, die im Korpusinneren mit größeren Resonanzkammern ausgestattet sind. Die typische Halbresonanzgitarre ist eine F-Loch-Gitarre mit Single-Cutaway (siehe Bild) oder Double-Cutaway. Ebenso sind auch Modelle ohne F-Löcher erhältlich, um den unerwünschten Rückkopplungseffekt im Verstärkerbetrieb zu minimieren. Die elektrische Regelausstattung umfasst zwei Tonabnehmer, die samt Volumen- und Klangregelung auf der Decke angebracht sind. Baritongitarre Eine Baritongitarre ist größer und eine Quinte tiefer gestimmt als eine Gitarre in Standardstimmung. E-Bass Der E-Bass entstand aus dem Bemühen, den Kontrabass durch ein elektrisch verstärkbares Instrument mit gleicher Stimmung und gleichem Tonumfang, aber der Größe einer Gitarre zu ersetzen. Er hat in der Regel vier Saiten (es gibt aber auch Modelle mit fünf und mehr Saiten), die durchgehend in Quarten gestimmt werden. Deshalb sind die E-, A-, D- und G-Saite eine Oktave tiefer gestimmt als die korrespondierenden Saiten einer Gitarre. Wie die Gitarre ist der E-Bass ein oktavierendes Instrument, sein Ton erklingt also eine Oktave tiefer als notiert. Silent/Traveller Guitar Silent Guitar und Traveller Guitar sind die Markennamen von korpuslosen Gitarren, die sich wie eine Konzert- oder eine Folk- oder Westerngitarre spielen. Durch den fehlenden Resonanzkörper sind sie wesentlich leiser, aber auch leichter als andere Gitarren. Der Ton kann darüber hinaus auch elektrisch abgenommen und verstärkt werden. Eine andere Art von Traveller Guitar, oder Reisegitarre (früher auch Touristengitarre bzw. Übungsgitarre genannt), ist die 1975 in Deutschland von Roger Field erfundene Foldaxe (1977 für kurze Zeit von Hoyer hergestellt, dann von Field weiterentwickelt), eine zusammenfaltbare E-Gitarre, die für Chet Atkins konzipiert war (in Atkins’ Buch Me and My Guitars). Weitere, allerdings auf elektrische Verstärkung angewiesene Reisegitarren sind beispielsweise Modelle der chinesischen Firma Traveler Guitar; etwa Ultra Light mit einer Mensur von 62,9 cm, einer Gesamtlänge von 72 cm und Piezo-Pickup der Firma Shadow oder Speedster. Bekannte Gitarristen siehe Liste von Gitarristen Literatur Tony Bacon, Paul Day: The Ultimate Guitar Book. Hrsg. von Nigel Osborne. Dorling Kindersley, London/ New York/ Stuttgart 1991. (Neudruck 1993, ISBN 0-86318-640-8) Tony Bacon, Dave Hunter: totally guitar: The Definitive Guide. Thunder Bay Press, 2004, ISBN 1-59223-199-3. (englisch) Ruggero Chiesa: Geschichte der Lauten- und Gitarrenliteratur. nova giulianiad, Band 3, Nr. 9, 86 ff. (Deutsche Bearbeitung mit kommentierenden Anmerkungen von Rainer Luckhardt) Paul Day, André Waldenmeier: E-Gitarren: Alles über Konstruktion und Historie. Carstensen Verlag, 2007, ISBN 978-3-910098-20-6. Hannes Fricke: Mythos Gitarre: Geschichte, Interpreten, Sternstunden. Reclam, Stuttgart 2013, ISBN 978-3-15-020279-1. Franz Jahnel: Die Gitarre und ihr Bau. Verlag Erwin Bochinsky, Frankfurt am Main 1963; erschienen auch im Verlag Das Musikinstrument 1977; 8. Auflage 2008, ISBN 978-3-923639-09-0. Johannes Klier, Ingrid Hacker-Klier. Die Gitarre. Ein Instrument und seine Geschichte. Hrsg. und eingeleitet von Santiago Navascués. Musikverlag Biblioteca de la Guitarra M. Bruckbauer, Bad Schussenried 1980, ISBN 3-922745-01-6. Martin Koch: Gitarrenbau. Martin Koch Verlag, 1999, ISBN 3-901314-06-7. Michael Leonardl: Das große illustrierte Handbuch Gitarre. Nikol Verlagsges., 2008, ISBN 978-3-86820-007-2. Andreas Lonardoni: Taschenlexikon Akustikgitarre. Presse-Projekt-Verlag, Bergkirchen 2001, ISBN 3-932275-17-9. Carlo May: Vintage – Gitarren und ihre Geschichten. MM-Musik-Media-Verlag, Augsburg 1994, ISBN 3-927954-10-1. Jürgen Meyer: Akustik der Gitarre in Einzeldarstellungen. Band 42: Das Musikinstrument. Verlag Erwin Bochinsky, 1985, ISBN 3-923639-66-X. Johannes Monno: Die Barockgitarre: The history, composers, music and playing technique of the Baroque guitar. Tree Edition, Lübeck 1995. Frederick Noad: The Frederick Noad Guitar Anthology. 4 Bände. Ariel Publications, New York 1974; Neudrucke (mit CD): Amsco Publications, New York /London/Sydney 1992 und 2002, UK ISBN 0-7119-0958-X, US ISBN 0-8256-9950-9. The Renaissance Guitar (= The Frederick Noad Guitar Anthology. Teil 1). The Baroque Guitar (= The Frederick Noad Guitar Anthology. Teil 2). Neuausgabe: Hal Leonard, Milwaukee, ISBN 978-0-8256-1811-6. The Classical Guitar (= The Frederick Noad Guitar Anthology. Teil 3). The Romantic Guitar (= The Frederick Noad Guitar Anthology. Teil 4). Herbert Nobis, Tadashi Sasaki: Harmonielehre für Gitarristen. Moeck, Celle, 1983. Peter Päffgen (Hrsg.): Gitarre & Laute. Verlag Gitarre & Laute 1979 ff., ISSN 0172-9683. Peter Päffgen: Die Gitarre – Geschichte, Spieltechnik, Repertoire, Grundzüge ihrer Entwicklung. Schott Music, Mainz 1988, ISBN 3-7957-2355-8; 2., erweiterte Auflage ebenda 2002. Hugo Pinksterboer: Pocket-Info: Akustische Gitarre. Schott Music, Mainz 2002, ISBN 3-7957-5126-8. Józef Powroźniak: Gitarren-Lexikon. Übers. [von Leksykon gitary] aus d. Poln. von Bernd Haag. Mitarb. an d. erw. u. überarb. dt.-sprachigen Ausg.: A. Quadt […]. 1979; 4. Auflage. Verlag Neue Musik, Berlin 1988, ISBN 3-7333-0029-7; Neuausagabe: Gitarren-Lexikon. Komponisten, Gitarristen, Technik, Geschichte. Nikol Verlagsgesellschaft, Hamburg 1997, ISBN 3-930656-45-0. Konrad Ragossnig: Handbuch der Gitarre und Laute. Schott Music, Mainz 2002, ISBN 3-7957-8725-4. Conny Restle, Christopher Li: Faszination Gitarre. Nicolaische Verlagsbuchhandlung, Berlin 2010, ISBN 978-3-89479-637-2. Fritz Rössel: Taschenlexikon E-Gitarre. Presse-Projekt-Verlag MEDIEN, Bergkirchen 2003, ISBN 3-932275-41-1. Kathleen Schlesinger: Alexander Schmitz: Das Gitarrenbuch. Geschichte, Instrumente, Interpreten. Krüger, Frankfurt am Main 1982. Michael Schneider: Guitar Basics – Der ultimative Hardware-Guide für Gitarristen. Presse-Projekt-Verlag MEDIEN, Bergkirchen 2008, ISBN 978-3-937841-56-4. Josef von Schönbach: Due Guitare und ihre Geschichte. In: Internationale Gitarrezeitung. Leipzig 1884, fortgesetzt in der Tölzer Zitherzeitung Echo vom Gebirge. Stefan Sell: Die Gitarre – Musikinstrumente entdecken. Schott Music, Mainz 2008, ISBN 978-3-7957-0177-2. Harvey Turnbull: The Guitar from the Renaissance to the Present Day. B.T. Batsford, London 1974. Gerken Teja, Michael Simmons: Akustische Gitarren – Alles über Konstruktion und Historie. Carstensen Verlag, 2003, ISBN 3-910098-24-X. James Tyler: The Early Guitar: A History and Handbook. (Early Music Series 4) Oxford University Press, Oxford 1980 James Tyler, Paul Sparks: The Guitar and Its Music from the Renaissance to the Classical Era. Oxford University Press, Oxford 2002, ISBN 978-0-19-816713-6; Neudruck ebenda 2007 (= Oxford Early Music Series), ISBN 978-0-19-921477-8. Josef Zuth: Handbuch der Laute und Gitarre.'' Verlag der Zeitschrift für die Gitarre (Anton Goll), Wien 1926 (1928). Weblinks Guitar Acoustics – Tondateien der University of New South Wales (englisch) Geschichte der Gitarre auf tabazar.de Monica Hall: Website zur Barockgitarre Anmerkungen Lauteninstrument Zupfinstrument
Q6607
1,039.129045
414667
https://de.wikipedia.org/wiki/FishBase
FishBase
FishBase ist eine Online-Datenbank mit Informationen und Bildern von über 34.800 Fischarten, 324.600 Namen, 61.300 Bildern, 58.600 Referenzen und 2.440 Partnern. Die Seite mit durchschnittlich 100.000 Zugriffen pro Monat wird kostenlos angeboten. Sie kann zudem auf CD-ROM erworben werden. Die Partner stellen kostenlos Bilder und Videos zur Verfügung, behalten jedoch das Urheberrecht. Viele Daten können von jedem Browser aus gegeneinander geplottet werden. Eintragungen, von denen die geographischen Koordinaten bekannt sind, können als interaktive Karten dargestellt werden. Auch ein Bestimmungsschlüssel und mehrere Lehrprojekte sind eingebunden. Entstehung der FishBase Die ersten Versionen einer rechnergestützten Fischdatenbank und Bestimmungshilfe mit Bildern (imageSYS) entwickelten sich 1985 in der Fischereibiologischen Abteilung des Instituts für Meereskunde in Kiel, wo die Direktoren Gotthilf Hempel und Walter Nellen großzügig Computer und Programme einwarben. Fishbase online Die erste Version mit interaktiven Hyperlinks und farbigen Fotos wurde von Uwe Kils auf der ersten NeXT-Workstation der Universität Kiel im Projekt „Kommunikation“ der Volkswagenstiftung programmiert und in Praktika mit Studenten in der Lehre getestet, dann 1994 eine von der D’art Corporation gespendete NeXT-colorstation als erster WWW-Server des Instituts gebootet. Die erste Fisch-Datenbank war wie ein heutiger Wiki programmiert, jeder konnte über das Internet ohne Passwort zufügen oder editieren. Der Fischlarven-Bestimmungsschlüssel von Hans Wilhelm Halbeisen wurde von Wolfgang Schöfer eingearbeitet. Einer der Studenten, Rainer Froese, trieb die Vision weiter voran und gründete in Manila zusammen mit Daniel Pauly die erste finanzierte Version. Jeder kann Bilder und Daten einsenden, über die Aufnahme und Bestimmung entscheiden jedoch Biologen. Heute hat FishBase viele feste, bezahlte Mitarbeiter und der Hauptsitz ist inzwischen wieder nach Kiel zurückgekehrt. Das von Bernd Ueberschaer 1998 gestartete Projekt LarvalBase wurde integriert. FishBase wurde 2001 in das an der Rutgers University, Institute of Marine and Coastal Sciences 1998 von Frederick Grassle mit Karen Stocks im Internet gestartete globale Projekt OBIS (Ocean Biogeographic Information System mit 5.253.721 Sites, 50.932 wissenschaftlichen Namen, 38.012 Arten, von 25 Quellen) integriert, in dem auf eine Weltkarte geklickt und so Zugriff auf alle dort lebenden (bisher eingebundenen) Meeresorganismen erlangt werden kann. Visionen Visionen von OBIS sind, dass live Einblicke in den Ozean über Webcams und Unterwasser-Mikroskope (ecoSCOPE) mit eingebunden werden, um die im Gebiet vorkommenden Arten interaktiv bestimmen zu können. Erste Versuche laufen im Projekt LEO15 vor Atlantic City und mit Expert-Servern auf species level, z. B. Schwarzer Zackenbarsch mit in situ aufgenommenen Referenzbildern und -videos. Für einige Schlüsselarten soll die Möglichkeit geschaffen werden, mit einem sogenannten virtuellen Mikroskop in die Mikrostrukturen der Morphologie interaktiv einzublicken (virtuelles Sezieren bis in elektronenmikroskopische Auflösung), ohne ein Tier töten zu müssen, wie es in einer Testversion am Antarktischen Krill schon zur Verfügung steht. Weblinks Texte überwiegend in Englisch Suchseite von FishBase FishBase – A Global Information System on Fishes Rutgers University: Institute of Marine and Coastal Sciences OBIS – Ocean Biogeographic Information System Suchseite von SeaLifeBase LarvalBase – Global Information System about FishLarvae Einzelnachweise Biologie-Onlinedatenbank Ichthyologie
Q837101
470.574761
93027
https://de.wikipedia.org/wiki/Vulg%C3%A4rlatein
Vulgärlatein
Mit Vulgärlatein wird das gesprochene Latein im Unterschied zum literarischen Latein bezeichnet. Deshalb wird synonym auch der Begriff Sprechlatein verwendet. Die Bezeichnung geht auf das lateinische Adjektiv vulgaris ‚zum Volke gehörig, gemein‘ zurück (sermo vulgaris ‚Volkssprache‘). Aus den etwas moderneren Bezeichnungen „Sprechlatein“ oder „Volkslatein“ wird aber deutlich, dass damit nicht zwangsläufig eine niedere Sprachform gemeint ist. Auch die Gebildeten sprachen Vulgärlatein. Vulgärlatein war vor allem eine gesprochene und weniger eine geschriebene Sprache. Hieraus leitet sich ab, dass viele vulgärlateinische Wörter nicht belegbar oder belegt sind. Dennoch lassen sich etliche durch eine Rekonstruktion aus heutigen und älteren romanischen Sprachformen bzw. im Vergleich zum klassischen Latein aufgrund regelhaft auftretender Lautverschiebungen erschließen. Das Vulgärlatein ist der sprachliche Ausgangspunkt der romanischen Einzelsprachen. Im Gegensatz zu diesen war es aber keine einheitlich definierte Sprache, weder in sozialer noch in geographischer oder zeitlicher Hinsicht. Auch ist Vulgärlatein nicht einfach mit „spätem“ Latein gleichzusetzen und als historische Sprachstufe aufzufassen, da es als Varietät des Lateins schon in den frühen Komödien des Plautus und des Terentius bezeugt ist und somit von einer frühen, bereits in altlateinischer Zeit einsetzenden Trennung von gesprochenem und geschriebenem Latein auszugehen ist, die später durch die Sprechgewohnheiten latinisierter Kelten und Germanen noch weiter vertieft wurde und im frühen Mittelalter schließlich zur Herausbildung der romanischen Sprachen führte. Erschließen des gesprochenen Lateins Da es aus alter Zeit keine Sprachaufnahmen gibt, muss das gesprochene Vulgärlatein erschlossen werden. Dazu dienen folgende Quellen und Befunde: die schriftliche und onomastische Überlieferung zu den frühen romanischen Sprachen, aus deren Entwicklung man durch Rekonstruktion erschließen kann, wie das Sprechlatein, aus dem sie hervorgegangen sind, ursprünglich gesprochen wurde; Angaben klassischer Autoren zum gesprochenen Latein wie in Ciceros De oratore (‚Über den Redner‘), in Suetons Ausführungen zu den Sprachgewohnheiten Kaiser Octavians und Vespasians oder (weit spätere) Angaben bei lateinischen Grammatikern, beispielsweise Appendix Probi; Schreibfehler in Inschriften oder Graffiti (beispielsweise in Pompeji) sowie auf – zumindest fragmentarisch – original erhaltenen Papyri, etwa „Hec pvgnabet contra orsom …“ statt Hic pvgnabit contra vrsvm … („Dieser wird … gegen einen Bären kämpfen“); Normabweichungen in erhaltener Privatkorrespondenz, beispielsweise Ciceros Atticus-Briefe; literarische Werke, in denen bewusst gesprochenes Latein wiedergegeben werden soll; außer den genannten Komödien etwa der Schelmenroman Satyricon des Titus Petronius Arbiter; christliche Texte, die literarisch-grammatische Eleganz als Ausdruck weltlicher Eitelkeit vermeiden und stattdessen einen „stilus humilis“ und Nähe zum gesprochenen Latein suchen, beispielsweise die Vulgata des Hieronymus; wegen des späten Entstehungszeitpunkts gilt zudem die Itineratio Egeriae, ein Pilgerbericht, als glückliche Quelle; Entlehnungen aus dem gesprochenen Latein in andere Sprachen, beispielsweise Kaiser aus Caesar (gegenüber der Aussprache von später neuentlehntem Cäsar oder dem bulgarischen/russischen Herrschertitel Zar gleicher Herkunft), oder Transkriptionen in einem anderen Alphabet, Κικέρων Kikérōn in griechisch für Cicero; Glossen zu erläuterungsbedürftig gewordenen klassisch-lateinischen Wörtern oder Wortformen; die Verslehre (lateinische Metrik) zeigt, dass z. B. anlautendes h- oder auslautendes -m kaum mehr gesprochen wurden. die über Augustinus’ Schrift De doctrina Christiana für Karthago belegte Schwierigkeit, dass das Vokalrepertoire den Unterschied zwischen ōs ‚Mund‘ und os ‚Knochen‘ nicht artikulieren konnte. die Bedeutungsverbesserung von lateinischen Wörtern, die in den romanischen Sprachen die Normalbedeutung ausdrücken; vgl. lat. caballus ‚Gaul‘ zu ital. cavallo, frz. cheval ‚Pferd‘; lat. bucca ‚Maul‘ zu ital. bocca, frz. bouche ‚Mund‘; manducare ‚mampfen‘ zu altital. mandicare, frz. manger ‚essen‘. lateinische Diminutivbildungen, die – in gesprochener Sprache eher vertreten – in romanischen Sprachen in die Normalbedeutung aufrücken; vgl. genu und *genuculum zu ital. ginocchio ‚Knie‘; filius und filiolus zu frz. filleul ‚Patensohn‘, altital. figliuolo ‚Sohn‘; lat. caput ‚Kopf‘ und capitium zu span. cabeza ‚Kopf‘, frz. chevet ‚Kopfende, Bettseite‘. hyperkorrekte Schreibweisen, die etwa in Inschriften Kenntnisschwund anzeigen: bspw. tempulum anstelle des korrekten templum in der Annahme, in der gesprochenen Sprache sei ein Vokal ausgefallen. Ähnlich möchte der Wechsel zwischen 'v' und 'b’ verfahren. die Komparativbildung aus lat. magis in der Fortsetzung im Spanischen oder – in jüngerer Entwicklung – der Komparativ aus lat. plus im Italienischen und Französischen. die zwischenzeitliche Bildung eines bestimmten Artikels aus dem Demonstrativpronomen ipse, wie er noch im Sardischen erhalten ist, während er in anderen Varietäten durch eine Bildung aus ille verdrängt wurde. Hinweise auf Wechsel der Wortart infolge von denkbarem Gestikulieren, indem aus lat. hicce ‚hier‘ die ital. Objektpronomen ci ‚zu uns, uns, hierin‘ und aus lat. ibi ‚dort‘ die Objektpronomen vi ‚zu euch, euch, dort hin, darin‘ usw. hervorgegangen sein möchten. Die Erschließung des Sprechlateins hängt ab von der Möglichkeit, die in solchen Quellen belegten Einzelphänomene unter dem Gesichtspunkt ihrer Lautgesetzlichkeit anhand von Regeln zu beschreiben und unter Berücksichtigung anderssprachiger Einflüsse sowie außersprachlicher (geschichtlicher, sozialer und geographischer) Faktoren zu erklären. Vulgärlatein in der Sprachwissenschaft „Vulgärlatein“ kann in der Sprachwissenschaft je nach Kontext unterschiedliche Bedeutungen haben: das gesprochene Latein des Römischen Reiches, der erschließbare Vorgänger der romanischen Sprachen (Proto-Romanisch). Die vom klassischen Sprachgebrauch abweichenden Innovationen in spätlateinischen Texten (ab dem 2. Jahrhundert n. Chr.) können auf vulgärlateinischen Einfluss zurückgehen. Aus sprachwissenschaftlicher Sicht kann jedoch der Begriff Vulgärlatein nicht auf solche Innovationen beschränkt sein, weil das gesprochene Latein ja auch schon in früheren Zeiten neben dem geschriebenen existiert hat und die besten Quellen des Vulgärlateins (Komödien des Plautus, Terenz) gerade aus vorklassischer Zeit stammen. In altlateinischer Zeit ist der Unterschied zwischen Sprech- und Schriftlatein noch vergleichsweise geringfügig. In klassischer Zeit, seit dem 3. Jahrhundert v. Chr., wird er durch die Normierung des Schriftlateins unter dem Einfluss des Griechischen – vermittelt durch griechische Sprach- und Rhetorik-Lehrer in Rom und durch die Nachahmung griechischer Literatur – verstärkt. Mit dem Wachstum und dem Zerfall (ab dem 3. Jahrhundert n. Chr.) des römischen Reiches und der Entstehung keltischer und germanischer Oberschichten intensiviert sich diese Entwicklung, die in der latinisierten Bevölkerung zu einer irreversiblen Zweisprachigkeit – Sprechlatein als Mutter- oder Erstsprache gegenüber Schriftlatein als sekundär erworbener Verkehrs-, Amts- und Literatursprache sowie Sprache des Kultus – und damit zur Herausbildung selbständiger romanischer Sprachen aus dem regional diversifizierten Sprechlatein führt. Die entscheidenden Übergänge in dieser Entwicklung sind zuerst für Nordfrankreich, und zwar für die Zweisprachigkeit dokumentiert, spätestens durch das Konzil von Tours (813) und für die Selbständigkeit des Romanischen durch die Straßburger Eide (842). Die erste wissenschaftliche Bestimmung des Begriffs Vulgärlatein wurde durch den Romanisten Friedrich Diez vorgenommen. Phonologie Vokale So verschwand die klassisch lateinische Unterscheidung zwischen langen und kurzen Vokalen (Quantitätenkollaps). Wegen dieser Veränderung wurde die Betonung auf Tonsilben viel ausgeprägter als im klassischen Latein. In der Folge entwickelten sich die Vokale bereits regional unterschiedlich weiter. Konsonantismus Ein vom klassischen Latein abweichender Konsonantenstand ist für die Periode vor dem Untergang des Römischen Reiches nicht belegt. Dennoch legen die modernen romanischen Sprachen eine Diversifizierung anhand von Substrat- oder Superstrateinflüssen nahe. Beispielsweise werden in sämtlichen romanischen Varietäten nördlich des Isoglossenbündels Rimini-Spezia die intervokalischen, stimmlosen Verschlusslaute des Lateinischen sonorisiert oder schwinden vollständig (vgl. amicus, ital. amico, frz. ami und span. amigo). Rechnet man ein, dass Norditalien, das heutige Frankreich und die iberische Halbinsel ehedem keltische Siedlungsgebiete waren, so könnte über Substrateinfluss der vorgefundenen keltischen Sprachen und ihrer Sprecher befunden sein. Für weniger wahrscheinlich gilt der Superstrateinfluss hinkommender Völkerschaften. Erwöge man Veränderungen durch die Germanen, so wäre deren Bevölkerungsanteil auch für die Zeit der germanischen Reichsgründungen nicht hinreichend zahlenstark gewesen. Dennoch könnte man die bezeichneten Gebiete nördlich der Linie Rimini-Spezia mit den Goten, Langobarden, Franken oder Vandalen in Beziehung setzen. Wortschatz Vulgärlatein kennt viele Wörter und (im Fall der letzten beiden Beispiele) Formen, die dem klassischen Latein fremd waren. Beispiele sind etwa: Einige im Romanischen verloren gegangene Wörter wurden später als lateinische Lehnwörter allerdings wieder aufgenommen. So findet man hin und wieder im Neuromanischen gelernte Latinismen, die neben ihren volkstümlichen, ererbten Formen koexistieren. Beispielsweise wurde das lateinische fungus ‚Pilz‘ im Spanischen zu hongo, mit dem lautgesetzlichen Wandel von anlautendem f zu h; daneben gibt es aber auch fachsprachliches fungo ‚Fungus, Myzel‘, das im Mittelalter neu aus dem Latein übernommen wurde. Neben diesen zahlreichen Wortdoubletten gibt es sogar Worttripletten. So gehen auf das lateinische fabula die italienische fiaba ('Fabel'), die italienische favella ('Sprache') und die italienische favola ('Märchen', 'Erzählung') zurück. Frühe Differenzierungen lassen sich an Wortschatzpräferenzen ablesen. Beispiel sei die Bezeichnung für 'schön', die in einigen romanischen Sprachen auf formosus zurückgeht, in anderen – mutmaßlich – auf *benellus bzw. bellus. In der Komparativbildung greift beispielsweise das Spanische auf die alte lateinischen Bildung mit magis zurück und nutzt eine ältere Möglichkeit. Einer Neuerung möchte die Komparativbildung aus plus gewesen sein, wie sie im Italienischen und im Französischen vorliegt. Beachtenswerterweise finden sich sprachliche Innovationen nahe an den Zentrallandschaften des Römischen Reiches, während sich in der Peripherie ältere Zustände erhalten haben. Grammatik Auftreten der bestimmten und unbestimmten Artikel Das klassische Latein, dem über das Vulgärlatein indirekt auch alle romanischen Sprachen entstammen, verfügte noch über keine Artikel. Im Latein finden sich verschiedene Demonstrativpronomina, die auch alleinstehend gebraucht werden können, etwa ille ‚jener, der‘; ein Demonstrativ, das ursprünglich auf fern liegende oder allgemein bekannte Personen oder Gegenstände verweist. Im Vulgärlatein und später in den romanischen Sprachen nimmt nunmehr dieses Demonstrativum zum einen eine Entwicklung hin zum bestimmten Artikel, zum anderen aber wird es zum Personalpronomen verblassen (grammatikalisieren). Im Vulgärlatein hat sich jedoch der Gebrauch des Demonstrativpronomens ille als definiter Artikel allmählich etabliert und wurde in den allermeisten romanischen Sprachen weiter ausgebaut. Der unbestimmte Artikel entwickelte sich in vielen Sprachen aus dem lateinischen Numerale (Zahlwort) für „1“ ( (m./f./n.) ‚ein/eine/ein‘) und ist deshalb häufig mit diesem in der Form identisch. lateinisch ūnus/ūna/ūnum (m./f./n.) → italienisch uno/una → französisch un/une → katalanisch un/una → spanisch un/una → portugiesisch um/uma → rumänisch un/o → aromunisch un(u)/unã Der hier genutzte Satz Sol est sidus bedeutet übersetzt: „Die Sonne ist ein Stern.“ Verminderung der Fälle Die lautgesetzlichen Veränderungen im Vulgärlatein bewirkten verschiedene Zusammenfälle im Bereich der Flexionsendungen, indem etwa auslautendes m stumm wurde sowie kurzes a mit langem ā und kurzes u mit langem ō zusammenfiel. Die nachfolgenden Tabellen vergleichen den Zustand des klassischen Lateins mit demjenigen des Vulgärlateins und fügen je eine spätere Varietät hinzu, um die Fortentwicklung anzuzeigen. Dieser starke Kasussynkretismus (Zusammenfall der Endungen) bewirkte eine zunehmende Umschreibung der syntaktischen Verhältnisse mittels Präpositionen. Vulgärlatein entwickelte sich damit von einer synthetischen Sprache zu einer analytischen. Der Genitiv starb gemäß Wilhelm Meyer-Lübke im dritten nachchristlichen Jahrhundert aus und wurde durch die dem Nomen vorangestellte Präposition de ‚von‘ ersetzt. Der Dativ hielt sich länger, wurde aber ebenfalls durch eine Präpositionalkonstruktion ersetzt, nämlich mit ad ‚zu‘. Von dieser Entwicklung wurden die Personalpronomen weniger betroffen, und sie behielten oft ihre eigenständigen Formen bei. So wurde der Ablativ mēcum ‚mit mir‘ im Spanischen zu conmigo. Das Rumänische hat komplexe Flexionen für den Genitiv/Dativ -e(i) -(l)ui -(l)or -uri. In den west- und inselromanischen Sprachen (Ibero-, Gallo- und Rätoromanisch sowie Sardisch) wurde dieses System in späterer Zeit dahingehend neu funktionsfähig gemacht, indem das im Vulgärlatein lautgesetzlich erhaltene -s im maskulinen Nominativ Singular schwand und das im Akkusativ Plural lautgesetzlich erhaltene -s auf den Nominativ Plural übertragen wurde. Damit erhielten die west- und inselromanischen Sprachen ein System „Singular ohne -s“ versus „Plural auf -s“; vgl. neufranzösisch Singular generell la rose, le mur versus Plural generell les roses, les murs. In den italoromanischen Sprachen hingegen verschwand das -s des maskulinen Nominativ Singulars ebenfalls, im Plural wurden hingegen die Formen des Nominativs verallgemeinert, vgl. neuitalienisch Singular generell la rosa, il muro vs. Plural generell le rose, i muri. Im Balkanromanischen schließlich haben sich sowohl Kasusendungen im Genetiv/Dativ als auch die Formen des lateinischen Nominativ Plural erhalten. Nach abweichender Erklärung setzt das Italoromanische das auslautende -s des Akkusativs Plural in einer Zwischenstufe ebenfalls voraus. Hingegen wird ein auslautendes -s des Lateinischen im Italienischen zu -i vokalisiert. Der Weg wäre somit muros > *muroi > muri. Verlust des Neutrums Da das Neutrum durch lautliche Entwicklungen meist nur noch im Nominativ und Akkusativ Plural vom Maskulinum zu unterscheiden war (vgl. n. nova, m. novi ‚die Neuen‘), wurde es von den Maskulina absorbiert. Im Italienischen haben sich Reste des lateinischen Neutrums erhalten. Formen wie l’uovo fresco ‚das frische Ei‘ / le uova fresche ‚die frischen Eier‘ deutet die eine Anschauung als maskulines uovo mit einem unregelmäßigen Plural, die andere Sicht beschreibt uovo als ein regelmäßiges Substantiv im Neutrum (lat. ovum, Plural ova). Ausgeprägter ist dieses Phänomen in einigen süditalienischen Dialekten, vgl. südkalabresisch locu ‚Ort‘ – locura. Auch das Spanische kennt noch Reste eines Neutrums. Deadjektivische Abstrakta flektieren zwar wie Maskulina, verlangen jedoch an Stelle des maskulinen Artikels el den neutralen Artikel lo: lo bueno ‚das Gute‘. Außer im Rumänischen gibt es in anderen großen romanischen Sprachen keine Substantive mit neutralem Genus mehr, aber alle haben noch Pronomina im Neutrum. Französisch: celui-ci, celle-ci, ceci ‚dieser‘, ‚diese‘, ‚dieses‘; Spanisch: éste ‚dieser‘, ésta ‚diese‘, esto ‚dieses‘; Italienisch: ciò, 'dies’ (aus ecce hoc); Katalanisch: el ‚ihn‘, la ‚sie‘, ho ‚es‘; Portugiesisch: todo ‚aller‘ m., toda ‚alle‘ f., tudo ‚alles‘ n. Klitische Objektpronomen (Tobler-Mussafia-Gesetz) Das klassische Latein kannte keine klitischen oder unbetonten Objektpronomina. Dort waren alle Pronomina, vergleichbar mit denen in der standardhochdeutschen Sprache, eigenständige Wörter, die frei im Satz an Stelle von Substantiven auftreten konnten, deshalb waren es in der Regel auch betonte Pronomen. Mit dem Herausbilden des Vulgärlateins entwickelte sich dann die Unterscheidung zwischen betonten und unbetonten Formen, wie sie in allen romanischen Sprachen zu finden ist. Auch kam es zu einer fundamentalen Umstrukturierung des Pronominalsystems, welche in der Folge Ausdruck des grundlegenden Umbaus im syntaktischen System war. Die Pronomina bildeten zwei Formen aus, so die betonten, unverbundenen, eigenständigen Pronomina, die allein oder mit einer Präposition zusammen auftreten und sich durch eine relativ freie Stellung im Satz auszeichnen, und die unbetonten, verbundenen Pronomina, die immer direkt beim Verb stehen (proklitisch vor oder enklitisch nach dem Verb). Diese Gesetzmäßigkeit wurde bei der Entstehung der romanischen Sprachen von den beiden Romanisten Adolf Tobler (1875) und Adolf Mussafia (1886) erstmals beschrieben und später als Tobler-Mussafia-Gesetz benannt. Im Vulgärlatein pàter me vídet der „Vater sieht mich“ steht das Pronomen me enklitisch zu pàter und proklitisch zu vídet. Im Satz nùnc me vídet „nun sieht sie/er mich“ steht das Pronomen me enklitisch zu nùnc und proklitisch zu vídet. Unbetonte Pronomen dürfen nicht am Satzanfang stehen, sondern müssen ein betontes Wort vor sich haben. Adverbien Das klassische Latein kannte verschiedene Suffixe, um Adverbien aus Adjektiven zu bilden: carus „lieb“, „teuer“ wurde zu care; acer „scharf“ zu acriter; creber „oft“ zu crebro. Alle diese Formen gingen im Vulgärlatein verloren und wurden durch einen Ablativ und das Wort mente, Ablativ von mens, ersetzt, was „im … Sinne“, „auf … Art/Weise“ bedeutete. So wurde velox („schnell“) statt zu velociter zu veloci mente > veloce mente („im schnellen Sinne“, „auf schnelle Art/Weise“, vgl. deutsch glücklicherweise, eigentlich „in glücklicher Weise“). Diese Veränderung fand schon im ersten Jahrhundert vor Christus statt und findet sich beispielsweise bei Catullus: Nunc iam illa non vult; tu, quoque, impotens, noli, Nec quae fugit sectare, nec miser vive, Sed obstinata mente perfer, obdura. („Nun will sie nicht mehr, du solltest auch nicht wollen, noch was flieht verfolgen, noch vergrämt leben, sondern (er)trage es festen Verstandes standhaft.“) Verben Morphologisch werden die Verben des klassischen oder Schriftlateins wie folgt differenziert: nach drei Personen (erste, zweite und dritte Person), zwei Numeri (Singular und Plural), nach drei finiten Modi (Indikativ, Konjunktiv und Imperativ) sowie fünf infiniten Modi (Infinitiv, Partizip, Gerundium, Gerundivum, Supinum). Weiter werden zwei Handlungsrichtungen oder Diathesen unterschieden – Aktiv und (Medio-)Passiv –, sechs Tempora und zwei Aspekte, so als „inperfectum“ Präsens, Imperfekt und Futur I sowie als „perfectum“ Perfekt, Plusquamperfekt und Futur II. Darüber hinaus lassen sich vier Konjugationsklassen aufzeigen, neben einer Reihe von unregelmäßigen Verben. Im Vulgärlatein machen sich nun drei Änderungen bemerkbar, so die Entstehung analytischer Formen im Bereich des Passivs, aber auch der Modi und Tempora sowie das Entstehen eines Systems aspektueller Verbalperiphrasen. Bei den Tempora verschwanden etliche Formen oder gingen in anderen Formen auf. Entwicklung Einige Tochtersprachen, wie Altfranzösisch, entwickelten durch die Lautverschiebungen neue grammatikalische Unterscheidungen. Beispielsweise gab es auf Latein ámo, amámus („ich liebe, wir lieben“); weil ein betontes A auf Altfranzösisch zu einem Diphthong wurde, konjugierte man j’aime („ich liebe“), aber nous amons („wir lieben“) (neufranzösisch: nous aimons). Viele dieser „starken“ Verben haben heute vereinheitlichte Formen, doch manche behielten die Diphthongierung: je viens („ich komme“), aber nous venons („wir kommen“). Das Futur wurde in den romanischen Sprachen ursprünglich über Hilfsverben ausgedrückt. Das war deswegen der Fall, weil /b/ zwischen Vokalen zu /v/ wurde, das Futur „amabit“ war so vom Perfekt „amavit“ nicht mehr unterscheidbar. Ein neues Futur wurde entwickelt, ursprünglich mit dem Hilfsverb habere: *amare habeo, wörtlich „ich habe zu lieben“. Wie aus folgenden Beispielen ersichtlich, wurde aus habeo ein Futursuffix: Französisch: j’aimerai (je + aimer + ai) < aimer [„lieben“] + j’ai [„Ich habe“]. Portugiesisch: amarei (amar + [h]ei) < amar [„lieben“] + eu hei [„Ich habe“]. Spanisch: amaré (amar + [h]e) < amar [„lieben“] + yo he [„Ich habe“]. Italienisch: amerò (amar + [h]o) < amare [„lieben“] + io ho [„Ich habe“]. Das Futur in der sardischen Sprache wird weiterhin mit app’a (appo a, von lat. habeo) + Infinitiv gebildet. Im Italienischen ist die zusammengesetzte Form in der altsizilianischen Dichtung (13. Jahrhundert) noch an der Wortbildung erkennbar. Das Konditional hat einen ähnlichen Ursprung wie das Futur. Es geht auf die Bildung von Typ *amare habui zurück, setzt also habere ins Perfekt (vgl. ital. amere[bb]i oder amerebbe). Konjugation Ein Vergleich klassischen und Vulgärlateins sowie von fünf romanischen Sprachen in der Konjugation des regelmäßigen Verbs amare und des Hilfsverbs esse: amare esse Literatur Frederick Bodmer: Die Sprachen der Welt. Geschichte – Grammatik – Wortschatz in vergleichender Darstellung. Parkland-Verlag, Köln 1997, ISBN 3-88059-880-0. Eugenio Coseriu: Das sogenannte „Vulgärlatein“ und die ersten Differenzierungen in der Romania. Eine kurze Einführung in die romanische Sprachwissenschaft. In: Reinhold Kontzi (Hrsg.): Zur Entstehung der romanischen Sprachen. Wissenschaftliche Buchgesellschaft, Darmstadt 1978, ISBN 3-534-04073-2, S. 257–291. Reinhard Kiesler: Einführung in die Problematik des Vulgärlateins. (= Romanistische Arbeitshefte. 48). Niemeyer, Tübingen 2006, ISBN 3-484-54048-6. Dag Norberg: Manuel pratique de latin médiéval. (= Connaissance des langues. 4). Picard, Paris 1968. (französisch) Gerhard Rohlfs: Vom Vulgärlatein zum Altfranzösischen. Einführung in das Studium der altfranzösischen Sprache. (= Sammlung kurzer Lehrbücher der romanischen Sprachen und Literaturen. 15). 3., verbesserte Auflage. Niemeyer, Tübingen 1968. Helmut Schmeck (Hrsg.): Karl Vossler: Einführung ins Vulgärlatein. Hueber, München 1953, . Veikko Väänänen: Le Latin vulgaire des inscriptions pompéiennes. Nouvelle éd. rev. et augm. (= Abhandlungen der Deutschen Akademie der Wissenschaften zu Berlin, Klasse für Sprachen, Literatur und Kunst. Jg. 1958, Nr. 3). Akademie, Berlin 1959. Veikko Väänänen: Introduction au latin vulgaire. Klincksieck, Paris 1963. (französisch) Das sogenannte „Vulgärlatein“ und die ersten Differenzierungen in der Romania. (PDF; 1,7 MB) In: Eugenio Coseriu: El llamado «latin vulgar» y las primeras diferencaciones romances. Breve introducción a la lingüística románica. Unveröffentlichtes Manuskript, Aus dem Spanischen von Wulf Oesterreicher. Montevideo 1954, S. 2–43, 135–150, 172–202. Weblinks Philipp Roelli: Vulgärlatein mit Ausblick auf die Entwicklung der romanischen Hauptdialekte – Einführung mit Textbeispielen. (PDF; 2,2 MB) auf der Internetseite der Universität Zürich The 11th International Conference on Late and Vulgar Latin in Oviedo (Asturias, Spain), 2014. Abstracts. (PDF; 864 kB) Johannes Kramer: Die Wiener Liste von Soldaten der III. und XXII. Legion. (P. VINDOB. L 2). (PDF; 229 kB) In: Zeitschrift für Papyrologie und Epigraphik. 97, 1993, S. 147–158. Romanische Sprachen und Latein. Mediencode 7595-47 Ausbreitung des Lateinischen. (PDF) Textauszug C.C. Buchner Verlag, Bamberg, S. 1–9. Einzelnachweise Latein Umgangssprache Ausgestorbene Sprache
Q37560
237.167275
8131
https://de.wikipedia.org/wiki/Dorf
Dorf
Als Dorf wird zumeist eine überschaubare Gruppensiedlung mit (geringer) Arbeitsteilung bezeichnet, die im Ursprung durch eine landwirtschaftlich geprägte Siedlungs-, Wirtschafts- und Sozialstruktur gekennzeichnet ist. Die Grundlage der Ansiedlung entsprang ursprünglich dem Zugang zu Wasser, Bau- und Brennmaterial sowie genügend kultivierbarem Land. Es gab früher auch Dörfer, in denen sich die meisten Bewohner einer speziellen Tätigkeit der Marktproduktion widmeten, etwa Fischerdörfer, Flößer- und Wanderhändlerdörfer, Weber- oder Töpferdörfer. In der Geographie gelten Siedlungen ab etwa 20 Hausstätten und mindestens 100 Einwohnern sowie einer einfachen Infrastruktur (verbindende Wege, gemeinsam genutzte Orte für Versammlungen, religiöse Zusammenkünfte und Märkte sowie einzelne spezialisierte Produktionsstätten bestimmter Berufe, der die Gemeinschaft einen besonderen Nutzen zuschreibt) als Dorf. Ständig bewohnte menschliche Ansiedlungen kennzeichnen den Dauersiedlungsraum der Erde (Ökumene). Hier bestehen Dörfer seit dem Beginn der Landwirtschaft vorwiegend aus festen Behausungen (ursprünglich verschiedene Formen von Pfostenhäusern). Unter klimatisch schwierigeren Bedingungen, die nur eine saisonale Nutzung des Landes als Feld oder Weide zulassen (Subökumene), fanden und finden sich zum Teil bis heute auch Dörfer nomadisierender bis halbsesshafter Bevölkerungen, die als Sommer- oder Winterdörfer genutzt wurden. Sie bestehen entweder aus festen Behausungen, die zeitweise unbewohnt bleiben, oder aus mobilen Behausungen, wie etwa Zelten oder Jurten. Alle denkbaren Kombinationen lassen sich finden: Häufig sind feste Winterdörfer als Hauptwohnsitz und mobile Sommerlager mit einer stark reduzierten Dorfstruktur oder nur für bestimmte Personen (etwa Hirten und ihre Familien), wie es für die transhumante Lebensweise z. B. die Yailas in Anatolien typisch ist. Fest Sommer- und Winterdörfer haben etwa die samischen Rentierhüter in Lappland. Kleinere Gruppensiedlungen werden regional auch als Weiler oder Bauerschaft bezeichnet. Streusiedlungen werden in manchen Gegenden nicht als Dorf bezeichnet, sondern in Nordwestdeutschland als Bauerschaft, am Niederrhein als Honnschaft. Noch kleinere Wohnplätze mit nur einem oder zwei Haushalten werden als Einzelsiedlung, Einzelgehöft, in Süddeutschland und den deutschsprachigen Alpenländern als Einöde oder Einödshof bezeichnet. Traditionell stellte das Dorf – auch in Abgrenzung zum kleineren Weiler – als Gemeinde der Bauern eine politische Einheit dar. Vor der Schaffung von Gemeinderäten im 19. Jahrhundert gab es im deutschsprachigen Raum den Schultheiß, Bürgermeister, Ortsvorsteher und Dorfschulzen. Durch die Gebietsreformen der 1970er bis 1990er Jahre sind die Dörfer in Deutschland überwiegend keine Gebietskörperschaften mehr, sondern wurden zu ländlichen Gemeinden zusammengefasst oder in benachbarte Städte eingemeindet. Einen Kompromiss mit Resten von Eigenständigkeit der Dörfer stellen manche Samt- und Verbandsgemeinden dar. In Bayern gilt gemäß der Entschließung des dortigen Staatsministeriums des Innern vom 18. Oktober 1950 (Nr. I B1 – 68a 1) grundsätzlich jede Ansiedlung mit zehn oder mehr Wohngebäuden, die keine Stadt ist, als Dorf. Größere Dörfer mit stärkerer Arbeitsteilung und einzelnen städtischen Funktionen heißen in Süddeutschland, insbesondere in Bayern, Markt. In Norddeutschland, vor allem in Niedersachsen, nennt man sie Flecken. In Hessen ist hierfür die Bezeichnung „Marktflecken“ verbreitet. In Österreich ist ein Dorf ebenfalls ein geschlossener Ort mit zehn oder mehr Gebäuden, mit historischer Struktur und gewisser Infrastruktur wie Kirche oder Gasthaus. Kleinere geschlossene Orte und Orte ohne jede Infrastruktur werden als Weiler, Rotte oder Zerstreute Häuser klassifiziert, moderne Neuanlagen als Häusergruppe. Größere Dörfer mit besonderer Bedeutung in geografischer oder wirtschaftlicher Hinsicht können zum Markt erhoben werden. In Frankreich, der Schweiz und Namibia sind sehr viele Dörfer eigene Gebietskörperschaften. Etymologie Der älteste Beleg für das Wort Dorf, thaurp, findet sich in der gotischen Bibelübersetzung des Wulfila, wo es einen eingezäunten Bereich (z. B. Pferch, Gehege) bezeichnet. Eine solche Einfriedung diente dem Schutz des Nutzviehs (Pferd, Rind, Ziege, Schaf, Schwein, Huhn, Gans, Ente usw.) vor Fressfeinden, wie dem Wolf. Diese Bedeutung ist auch für das nordfriesische terp, das altfriesische therp, wie auch das alemannische Dorf anzunehmen, das Wort sollte ursprünglich also nicht den Unterschied zwischen einer Einzel- und Gruppensiedlung anzeigen. Im Schwedischen steht der Begriff torp für einen einsam gelegenen, kleinen Bauernhof. Torp hat den gleichen sprachlichen Ursprung aus dem gemeingermanischen Wort wie das althochdeutsche dorf, das altenglische bzw. altsächsische thorp, angelsächsisch thorpe, das altisländische þorp und das niederländische dorp. Auf Südjütisch heißt Dorf trop. Auch das Suffix -trup – mit all seinen Varianten – bedeutet in den nord- und westgermanischen Sprachen immer „-dorf“; jedoch im ursprünglichen Sinne von Einzelhof. Archäologie des Dorfes Seit dem Frühneolithikum sind Siedlungen bekannt, die sich durch eine Ansammlung gleichzeitiger Häuser, einer ökonomischen Grundlage in der Landwirtschaft und gemeinsame Einrichtungen auszeichnen. Nach einer Definition des Dorfes, die auf ebendiese Kriterien abzielt, ist das „Dorf“ somit eine grundlegende Siedlungsform der Agrarkultur. Vorläufer des Dorfes ist der von Jägern und Sammlern mitunter nur saisonal aufgesuchte Wohnplatz. Gleichwohl sind in den Jahrtausenden der Vorgeschichte und des Mittelalters einige Veränderungen des Dorfes zu beobachten. Bedeutend zu sein scheint etwa die Entwicklung von der Tellsiedlung, die zu Beginn des Ackerbaus in Südosteuropa bis in den Donauraum verbreitet ist, zur Reihensiedlung und am Übergang zum Mittelneolithikum zur Streusiedlung mit lockerer, einheitlich orientierter Bebauung. Hier mögen kulturelle, soziale und wirtschaftliche Umwälzungen im Hintergrund stehen. Vor allem ist zu fragen, wann jene Dörfer entstanden, welche die heutige mitteleuropäische Siedlungslandschaft prägen (Problem der „Dorfgenese“). Die ältere Lehrmeinung ging davon aus, dass das „Dorf“ eine typisch germanische Siedlungsform sei und in Westdeutschland auf die germanische Landnahme der Völkerwanderungszeit, im Osten aber auf die deutsche Ostsiedlung zurückgehe. Archäologische Zeugnisse zeigen jedoch, dass bis weit ins Mittelalter das ländliche Siedlungsgefüge bedeutenden Veränderungen unterworfen war. Die klassischen Dorfformen Mitteleuropas sind oft nur Sekundärformen, die sich durch Siedlungskonzentrationen und -verlagerungen, Zusammenlegung von Einzelgehöften (besserer gemeinsamer Schutz, oft bachabwärts wegen der sichereren Wasserversorgung im Mittelgebirge), aber auch durch komplette innere Umstrukturierung älterer Siedlungen entwickelten. Eng verbunden mit der Dorfgenese ist die Gemeindebildung, wie sie sich in schriftlichen Quellen fassen lässt und derzeit vorrangig ins 12./13. Jahrhundert datiert wird. Historisch gewachsene Dorfformen in Mitteleuropa Dörfer werden nach Grundriss, Lage, sozialökonomischer Funktion und Wirtschaftsweise klassifiziert. Grob unterscheidet man nach ungeregelten und geregelten Dorfanlagen, wobei letztere nur bei gelenkter und durchdachter Planung (Kolonisation) vorkommen. Zu den häufigsten Dorfformen gehören die Haufen-, die Reihen- und die Straßendörfer. Auf Besonderheiten und Parallelen wird in den einzelnen Abschnitten eingegangen. Reine Dorfformen sind kaum anzutreffen, Ausnahme die Rundlinge. Im Zusammenhang mit den Dorfformen stehen die Flurformen. Spätestens im 20. Jahrhundert traten in deutschen Dörfern Zersiedelungsprozesse ein, wurden Fluren bereinigt und Felder zu großen Schlägen zusammengelegt („Verkoppelung“). Geschlossene Dorfformen Haufendorf Ein Haufendorf ist ein geschlossen bebautes Dorf mit unregelmäßigen Grundstücksgrundrissen und häufig unterschiedlich großen Höfen, oft von einem Ortsetter umgeben. Haufendörfer unterscheiden sich von den meisten anderen Dorfformen dadurch, dass sie unplanmäßig angelegt wurden. Ein großer Teil der Haufendörfer entstand im Zusammenhang mit der mittelalterlichen Gewanneflur, bei der jeder Bauer Streifen verschiedener Felder bewirtschaftete und sich die Lage dieser Feldstreifen auch immer wieder änderte. Die Gemarkung solcher Dörfer gliederte sich in Dorfkern, Ackerflur und Allmende. Kompaktdorf Ein Kompaktdorf ist der Extremfall eines Haufendorfs. Die Häuser wurden eng beieinander oder aneinander gebaut, um in prekären topographischen Verhältnissen Platz zu sparen. Typischerweise finden sich Kompaktdörfer in den romanischsprachigen Teilen der Alpen, beispielsweise im nördlichen Kanton Tessin. Straßendorf Ein Straßendorf ist ein lineares, zumeist doppelzeiliges Dorf, dessen Häuser bzw. Gehöfte eine Straße (vorzeitlich eine Trasse) in dichter Anordnung säumen. Typischerweise sind die heutigen Einzelhäuser bzw. Gehöfte giebelständig zur Straße angeordnet. Eine von der Hauptstraße abzweigende Straße ist oft eine Sackgasse. Angerdorf Ein Angerdorf ist ein Dorf, dessen hervorstechendes Merkmal der Anger, ein im Gemeindebesitz befindlicher zentraler, gestreckt runder Platz mit zumeist einem Teich (Löschwasserteich) oder Brunnen ist. Angerdörfer kommen in Mitteleuropa vor allem auf Grundmoränenplatten und in Lößgebieten vor, in Deutschland vor allem in Ost- und Ostmitteldeutschland. Straßenangerdorf Das Straßenangerdorf ist ein Straßendorf, dessen Dorfstraße sich an einer Stelle oder auch in größerer Länge zu einem Anger weitet und dann weiterläuft. Im deutschen Sprachraum sind Angerdörfer typisch für Nordostösterreich und Teile der Mark Brandenburg. Auch in Nordengland sowie in Frankreich im Barrois gibt es Angerdörfer. Charakteristisch für die Anlage brandenburgischer Straßenangerdörfer in der friderizianischen Zeit ist die Aneinanderreihung der Wohngebäude längs zur Straße, mit einem in der Regel mittigen Eingang oder Durchgang und, bei Bedarf, einer zusätzlichen seitlichen Hofeinfahrt. Rundling, Rundplatzdorf, Rundweiler Ein Rundling, Rundplatzdorf oder auch regional Rundweiler genannt, ist eine ländliche Siedlung in Rundform, deren Verbreitung sich im Wesentlichen auf den einstigen deutsch-slawischen Grenzraum, also westlich und östlich der Saale und Elbe, z. B. im Hannoverschen Wendland beschränkt. Sie zählen sämtlich zu den Platzdörfern. Rundlinge liegen häufig auf Spornen, die in die Niederungen der Urstromtäler hineinragen. Der Platz in der Mitte war ursprünglich nur über einen Weg an das allgemeine Verkehrsnetz angeschlossen. Um den Platz sind wenige Bauernhöfe angeordnet. Daran schließt sich eine Streifengemengeflur an. Es ist ungeklärt, ob die Rundform aus Sicherheitsgründen oder in Anpassung an die vorwiegende Viehwirtschaft gewählt wurde. Ein typisches Beispiel ist Bugk (slaw. bug oder buk, dt. „Buche“) im Landkreis Oder-Spree in Brandenburg. Aus einem Wegestern entstanden, auf einer kaum wahrnehmbaren Anhöhe in feuchtem, sumpfigen Gelände gelegen, stellt der Ortskern ein slawisches Rundplatzdorf dar. Rundlinge sind slawischen Ursprungs und häufig in Ostdeutschland anzutreffen. Eine Besonderheit stellt das Wurtendorf dar. Es gehört zu den Siedlungen, deren Gehöfte auf einen zentralen (Dorf-)Platz ausgerichtet sind. Das Wurtendorf entstand in der Regel auf einem von Menschen aufgeschütteten Erdhügel, der als Siedlungsplatz für eine Einzel- oder Gruppensiedlung dient. Der Hügel sollte das Dorf vor Sturmflut bzw. Hochwasser schützen. Dieser Siedlungstyp kommt vor allem an den Marschenküsten vor, mitunter auch an Flussläufen. Wurtendörfer entstanden vor allem im 7. und 8. Jahrhundert. Reihendorf Reihendörfer entstehen durch den Bau einer Siedlung entlang eines langgestreckten topografischen Objekts wie Bach, Graben oder Deich. Liegt die Siedlung hingegen entlang einer Straße oder eines Weges, spricht man von einem Straßendorf. Reihendörfer und Straßendörfer bieten oft die Möglichkeit, die Siedlung an beiden Enden zu erweitern. Zeilendorf Ein Zeilendorf besteht aus einer Häuser- oder Hofzeile, die regelmäßig und linear aneinander gereiht ist. Kolonistendörfer in Brandenburg Die Brandenburger Kolonistendörfer entstanden nach dem Jahr 1157 im Zuge der von Albrecht dem Bären und seinem Sohn Otto I. betriebenen Ansiedlungspolitik. Die beiden ersten brandenburgischen Markgrafen versuchten mit dieser Politik erfolgreich, die 1157 eroberte und gegründete Mark Brandenburg, die noch in weiten Teilen von Slawen bewohnt war, zu christianisieren und zu stabilisieren. Die Kolonisten kamen überwiegend aus der Altmark und aus Flandern. Die Dörfer wurden in der Regel als Reihendorf oder Rundling mit Wald-, Wiesen- und Ackerhufen angelegt, vereinzelt gab es dreieckige Sackgassendörfer wie Gröben bei Ludwigsfelde. Ein typisches Beispiel ist Elsterwerda. Offene Dorfformen Bei offenen Dorfformen war die Möglichkeit des gegenseitigen Schutzes der Dörfler, aber auch die Gefahr einer Brandkatastrophe geringer als bei geschlossenen. Wo jeder Bauer dauerhaft eine möglichst zusammenhängende Nutzfläche bewirtschaftet, verkürzt es die mit dem Arbeitsalltag verbundenen Wege, wenn das Gehöft am Rand oder inmitten der Nutzfläche steht. Bei der planmäßigen Urbarmachung nicht oder kaum landwirtschaftlich genutzter, vielfach waldbestandener Gebiete bekam jeder Bauer dauerhaft eine zusammenhängende Fläche zugeteilt, die Hufe. So entstanden z. B. die Waldhufendörfer östlich der Saale. Streusiedlung Eine Streusiedlung ist eine nicht geschlossene Siedlung, die aus weit auseinanderliegenden Bauernhöfen und Weilern ohne eigentlichen Ortskern besteht. Typische Streusiedlungsgebiete sind das westliche Niedersachsen (zum Beispiel das Münsterland), der Schwarzwald sowie der voralpine und alpine Raum (hier beispielsweise die Walserkolonien). Zwischen Weser und Ems war Streusiedlung seit jeher verbreitet; in Teilen des Allgäus und des Schwarzwaldes dagegen wurde sie erst in der Frühen Neuzeit eingeführt, um die Erträge der Landwirtschaft zu verbessern. Große Teile Kanadas und der USA bestehen aus Streusiedlungen. Hufendörfer Hufendörfer sind spezielle Formen des Reihendorfs als Hagenhufendorf, Marschhufendorf, Moorhufendorf, Waldhufendorf und Straßendorf. Letzteres beschränkt die topografischen Objekte auf Straßen und Wege. Die Abgrenzung des Begriffes ist nicht scharf definiert. Siedlungen an Kristallisationspunkten Kirchdorf In Gegenden mit traditioneller Streusiedlung ließen sich neben einer Kirche gerne Menschen nieder, die ihren Lebensunterhalt nicht oder nicht nur mit Landwirtschaft verdienten. Handelt es sich bei der Kirche um eine Pfarrkirche, so trifft die Bezeichnung Pfarrdorf zu. Marktflecken Wo in verkehrsgünstiger Lage regelmäßig Märkte stattfanden, was in der Feudalzeit nur mit obrigkeitlicher Erlaubnis möglich war, siedelten sich außer Händlern gerne auch Handwerker an. So entstanden Siedlungen, die nicht selten größer waren als reine Bauerndörfer. Etliche dieser Minderstädte erhielten später Stadtrechte. Eisenbahnsiedlung Die Eisenbahnsiedlungen entstanden vor allem in der zweiten Hälfte des 19. Jahrhunderts bis zum Anfang des 20. Jahrhunderts. Wesentliche Voraussetzung war das Vorhandensein von Eisenbahnhaltepunkten und ihr netzmäßiger Ausbau als Komponente der Infrastruktur. Entwicklung des dörflichen Lebens in Deutschland Bis zum Beginn des 20. Jahrhunderts Landwirtschaft und Kleinhandwerk wirkten traditionell prägend im Dorfleben. Die Bewohner lebten überwiegend von dem, was Ackerbau und Viehzucht hergaben. Private Hausgärten bildeten die Grundlage für die subsistenzwirtschaftliche Versorgung der Bevölkerung mit Gemüse, Früchten und Obst. Wie Schirrmacher am Beispiel eines lippischen Dorfs ausführt, standen noch bis in die 1960er Jahre die eigenen Erträge aus Nutzgarten und Ackerland im Vordergrund. Wer über einen Stall verfügte, hielt ein oder zwei Schweine, Hühner, Kaninchen und auch Ziegen, die bei Bedarf geschlachtet wurden. Zugekauft wurden u. a. Salz, Zucker, Mehl, Kaffee, Essig, Speiseöl und Gewürze. Die Mahlzeiten waren zudem abhängig vom Rhythmus der Jahreszeiten, familiären Ereignissen sowie von Ernteterminen. Für den Hausbau verwendete man Materialien aus der Umgebung: Holz, Bruchstein, Ziegel – in den meisten deutschen Gebieten vom Hochmittelalter bis ins 19. Jahrhundert vor allem für Fachwerkbauten. Die Innenaufteilung der Gebäude orientierte sich an den damaligen Erfordernissen; Wirtschaftsbereich und Wohnbereich befanden sich – vor allem in Mittelgebirgslagen – nahe beieinander, z. T. unter einem Dach (z. B. im sogenannten Einhaus). Beheizt wurde lediglich die Küche, die daher im Winter als Wohnraum diente. In jedem Dorf fanden sich in der Regel sämtliche Berufe, die für die Herstellung und Erhaltung des täglichen Bedarfes sowie wichtige Dienstleistungen notwendig waren. Dem örtlichen Pfarrer und dem Dorflehrer kamen aufgrund ihrer herausgehobenen Position ein hohes Prestige zu. Die Freizeit verbrachten die Dorfbewohner mit Tätigkeiten und Leistungen, die der persönlichen, familiären oder dorfbezogenen Lebensbewältigung dienten. Solche Tätigkeiten mit Grunddaseinsfunktion waren z. B. die familienbezogene Handarbeit der Frauen und die Produktion handwerklicher Alltagsgegenstände durch die Männer, aber auch Tätigkeiten für die Gemeinschaft, wie z. B. der Deichbau in überflutungsgefährdeten Gegenden. In der Dorfgemeinschaft waren alle Mitglieder aufeinander angewiesen. Wer sich nicht daran hielt, hatte mit Ausgrenzung zu rechnen. Sonn- und Feiertage, Hochzeiten und Beisetzungen bildeten Zäsuren im Alltagsleben und förderten die Zusammengehörigkeit. Im letzten Viertel des 19. Jahrhunderts begann das Vereinsleben auf den Dörfern in Deutschland: Kriegervereine, Gesangvereine, Schützen- und später auch Sportvereine belebten die Gemeinschaft. Die großbäuerliche Oberschicht und der Adel distanzierten sich zumeist davon, um ihren sozialen Status zu wahren. Der Tagesablauf wurde vor allem vom jährlichen Zyklus der landwirtschaftlichen Tätigkeiten und der Witterung bestimmt; zudem von kirchlichen Feiertagen und familiären Ereignissen. Die Arbeit bestimmte das Leben; dies galt bereits für Kinder im Grundschulalter, die etwa unentbehrliche Helfer bei der Ernte waren. Selbst der Schulunterricht – in kleinen Ortschaften häufig für alle Kinder gemeinsam in einem Raum durchgeführt – wurde mit den landwirtschaftlich bedingten Abläufen abgestimmt. Die Schulferien waren auf die Erntearbeiten abgestellt (Heuferien, Getreideferien (Ernteferien) und Kartoffelferien). 1. Hälfte des 20. Jahrhunderts Mit Beginn des Ersten Weltkrieges erfuhr das Dorfleben eine Zäsur, da die meisten männlichen Dorfbewohner Kriegsdienste leisten mussten und versehrt oder gar nicht zurückkehrten: Notwendige Baumaßnahmen und Reparaturen wurden vernachlässigt und das Wirtschafts- und Alltagsleben war grundlegend betroffen. Häufig bildeten sich informelle Solidargemeinschaften, innerhalb derer man sich gegenseitige Unterstützung zuteilwerden ließ. Die Machtübernahme der Nationalsozialisten hatte erheblichen Einfluss auf das wirtschaftlich-soziale Gefüge der Dörfer. Die nun einsetzende Blut- und Boden-Ideologie erklärte den landwirtschaftlich nutzbaren Boden zum unveräußerlichen Gut. Der Reichsnährstand verlangte Abgaben, die die Bauernschaft zu leisten hatte. Mit Beginn des Zweiten Weltkrieges wurde eine Zwangsbewirtschaftung eingeführt, die dem Staat einen direkten Zugriff auf landwirtschaftliche Produkte ermöglichte. Erneut trugen Frauen, Alte, Kriegsversehrte und Kinder die Verantwortung für alle dörflichen Belange. Die Zwangsarbeit von Kriegsgefangenen, die bei der täglichen Arbeit in der Landwirtschaft eingesetzt wurden, erleichterte die tägliche Arbeit, führte aber auch zu neuen sozialen Problemen. Die politisch motivierte Sozialkontrolle durch ständig drohende Denunziation Andersdenkender, die in den eng zusammenlebenden Gemeinschaften herrschte, nutzte dem Regime und schadete der Gemeinschaft langfristig. Nach Kriegsende setzte eine neue Entwicklungsphase im ländlichen Raum ein, die die dörflichen Strukturen in den beiden neuen deutschen Staaten erheblich veränderten: Infolge der Vertreibung der meisten Bewohner aus den nach Kriegsende abgetrennten Ostgebiete des ehemaligen Deutschen Reiches ergab sich ein hoher Zuzug von Flüchtlingen und Vertriebenen in die von Zerstörung verschont gebliebenen Dörfer und Kleinstädte. Der Bedarf an Wohnraum war beträchtlich, zum Teil entstanden Notunterkünfte. Infolgedessen stiegen die Bevölkerungszahlen in den ländlichen Siedlungen überall stark an. In der Nachkriegszeit wurden die Dörfer begehrte Anlaufpunkte für Hamsterfahrten der notleidenden Bevölkerung aus den Ballungsgebieten, dabei waren Formen des Tauschhandels gang und gäbe. In der sowjetischen Besatzungszone und später in der DDR fand nach dem Krieg eine Bodenreform statt; man griff in die Eigentumsverhältnisse ein: Entschädigungslose Enteignungen war die Folge, es entstanden daraus zunächst Neusiedlerstellen für Kleinbauern, später wurde die Kollektivierung der Landwirtschaft erzwungen. In der neugegründeten Bundesrepublik Deutschland wurden in den frühen 1950er Jahren Fördermöglichkeiten zum Wohnungsbau – auch speziell mit Blick auf Zugezogene – etabliert (Lastenausgleichsgesetz), die sich auch im Dorfbild niederschlugen. Neue Wohnhäuser mit Wirtschaftsgärten und kleinem Stallanbau entstanden häufig am Rande der Dorfkerne. Die Heimatvertriebenen brachten ihre eigene Kultur, ihre besonderen Dialekte, Gebräuche und Gewohnheiten ein. In traditionell evangelisch geprägten Gebieten wurden katholische Gemeinden etabliert oder umgekehrt. Dies führte zu neuen Spannungen. Mit der Währungsreform 1948 und dem in den westlichen Bundesländern beginnenden Wirtschaftswunder entstand Arbeit und Beschäftigung – vor allem in der Industrie und im Bergbau, später auch im Dienstleistungsbereich. Damit setzte das Pendeln von Arbeitskräften aus den Dörfern in die Städte sowie eine zunehmende Landflucht ein. Die Einwohnerzahl in den meisten ländlichen Gemeinden pendelte sich in den frühen 1950er Jahren wieder ungefähr auf Vorkriegsniveau ein. Seit Mitte des 20. Jahrhunderts In vielen Regionen wurde der Aus- und Neubau der Verkehrsinfrastruktur notwendig. In der Bundesrepublik erfolgte das mit Blick auf den Individualverkehr, in der DDR eher am ÖPNV orientiert. Ausbau und Verbreiterung von Straßen bedeuteten oft einen massiven Eingriff ins Dorfgefüge. Dies teilte mancherorts Dörfer, die Lärmbelästigung nahm zu. Dörfer wurden zu „Auspendlergemeinden“, sofern vor Ort die Arbeitsmöglichkeit fehlte. Die Rationalisierung der Landwirtschaft setzte ein. Die dabei freigesetzten Arbeitskräfte fanden häufig Beschäftigung in den Ballungsräumen. Landwirtschaftsbetriebe, die expandieren wollten, siedelten aus den engen Dorflagen an die Ränder aus, was Leerstände in der Dorfmitte zur Folge hatte. Im Umland der Ballungsräume verlor die Landwirtschaft zunehmend an Bedeutung für die Dörfer. In der DDR wurden Gebietsreformen durchgeführt; aus ehemaligen Bundesländern wurden DDR-Bezirke. In der BRD entstand eine föderale Ordnung, in der Bund, Bundesländern und Gemeinden unterschiedliche Aufgaben zugewiesen wurden: Jede Dorfgemeinde besaß ihren haupt- oder ehrenamtlich tätigen Bürgermeister, der die Belange der Gemeinde nach außen hin vertrat und örtliche Zuständigkeiten in Abstimmung mit der gewählten Gemeindevertretung auf Basis der Gesetze und Verordnungen regelte. Nach 1969 wurde in der BRD eine Gemeindegebietsreform durchgeführt, die durch Zusammenlegung von Dörfern neue Verwaltungs- und Gemeindestrukturen entstehen ließ, die nicht selten traditionell gewachsene Sozialstrukturen aufbrachen. In den 1970er Jahren begann ein Trend zum ländlichen Wohnen: leerstehende Bauernhäuser wurden zu reinen Wohngebäuden umgebaut. In attraktiven Mittelgebirgslagen entstanden Zweitwohnungensiedlungen im Anschluss an bestehende Dörfer, so z. B. im Einzugsgebiet Frankfurts, im Vogelsberg. Der Zuzug von Städtern, sowie seit den 1960er Jahren von Gastarbeitern, erzeugte erneute soziale Spannungen. Wie Tappe-Pollmann für das Lipperland formuliert: Durch die fortschreitende Rationalisierung der Landwirtschaft und anderer Erwerbszweige, die größere Mobilität und Reaktionen auf die Gebietsreform haben sich die dörflichen Strukturen grundlegend gewandelt, sodass der „dörfliche Charakter“, den viele Gemeinden und Ortsteile gerne hervorheben, in vielerleit Hinsicht nur noch historisch ist. Heute werden manche neuen Siedlungen oder auch Einrichtungen als Dorf bezeichnet, um ihre Überschaubarkeit oder ihre Abgrenzung von einer umgebenden Großstadt zu betonen. Überkommene Dörfer, mit (touristischer) Vermarktung einer besonderen Tradition, eines politischen Anspruchs oder anderer Besonderheiten Töpferdorf Glasmacherdorf Ökodorf Storchendorf Schachdorf Dorf der Jugend (in der DDR) „Dörfer“ für den vorübergehenden Aufenthalt bestimmter Personengruppen Kinderdorf Studentendorf Olympisches Dorf Feriendorf (auch: Touristendorf, Urlauberdorf oder -siedlung) Vom Umfeld abgegrenzte Bauweise Containerdorf Zumeist nicht (mehr) bewohnt Museumsdorf Wüstung Soziale Strukturen, Soziologisches Dorfgemeinschaft Eine Dorfgemeinschaft zeichnet sich aus durch soziale Beziehungen (Nachbarschaftsbeziehungen, feste Strukturen und Normen, Sitten, Brauchtum, Feste, Vereinswesen) bis hin zur ländlichen Architektur, Bekleidung, Nahrung usw. Auch die Entwicklung der Bevölkerung blieb an die verfügbare Nutzfläche gebunden, was – etwa im Alpenraum mit seinem eng begrenzten Siedlungsraum – häufig zu inner- und zwischengemeindlichen Konflikten führte. Das Gleichgewicht wurde dadurch aufrechterhalten, dass ein Teil der Bevölkerung keine Familien gründete oder auswanderte. Mit beginnender Industrialisierung fand der nichtbäuerliche Teil der dörflichen Bevölkerung durch Heimarbeit eine zusätzliche Einnahmequelle. In Südwestdeutschland wurde durch eine breitgestreute Ansiedlung kleinerer Industriebetriebe relativ früh eine größere Zahl außerlandwirtschaftlicher Dauerarbeitsplätze geschaffen. Heute bildet das landwirtschaftlich bestimmte Bauerndorf die Ausnahme. Soziologisch wird das Dorf empirisch vor allem in der Gemeinde- und Agrarsoziologie untersucht (teilweise in der Entwicklungssoziologie), konzeptionell ist dafür besonders auf den Begriff „Gemeinschaft“ zu verweisen. In der Anthropologie und Ethnologie bezeichnet Dorfgemeinschaft als Fachbegriff speziell die sozialen Gruppen traditioneller Bodenbauern. In den Dörfern hatten Anfang des 19. Jahrhunderts bei ausbrechendem Brand sofort bestimmte Einwohner die Feuerspritze zu holen. Ein Feuerläufer musste erforderlichenfalls eine weitere Löschpumpe anfordern. In vielen Dörfern hatten bei Wahrnehmung eines Brandes der Lehrer des Ortes Sturm zu läuten und der Ausschusstambour Alarm zu schlagen. Alle arbeitsfähigen Einwohner mussten mit gefülltem Eimer zur Brandstelle eilen und sich in doppelter Reihe nach dem nächsten Wasser (z. B. Bach, Brandweiher) aufstellen: „Durch die Hände lange Kette um die Wette flog der Eimer.“ Dorfentwicklung und -sicherung Dörfer unterliegen momentan einem starken strukturellen Wandel. Aufgrund des Aussterbens der kleinbäuerlichen Dorfkultur entfällt die Landschaftspflege besonders in abgelegeneren Orten. Während die zumeist ältere landwirtschaftlich tätige Generation ausstirbt, erwirtschaftet die Mehrheit der Dorfbewohner ihr Einkommen als Pendler in den mehr oder weniger nahe liegenden Ballungsgebieten. Die Anzahl Pendler hat beispielsweise in der Schweiz von 1990 bis 2016 um 38 % zugenommen. Daher werden zur Sicherung des gewachsenen Landschaftsbildes verschiedene Anstrengungen unternommen. Mit dem Europäischen Dorferneuerungspreis und dem Bundeswettbewerb „Unser Dorf hat Zukunft“ sollen die Bewohner der Dörfer durch Anregung des Bürgerengagements die Lebensqualität erhalten oder verbessern. Unterstützt werden diese Bemühungen beispielsweise mittels Programmen zur Dorferneuerung. In Bezug auf die Agenda 21 erhofft man sich davon zumindest den Erhalt des Landschaftsbildes. Das Dorf in Literatur und Ideengeschichte Während es schon seit dem 19. Jahrhundert eine blühende Literaturform gibt, welche die dörfliche Gemeinschaft und die dörflichen Konflikte in den Mittelpunkt rückt (Dorfgeschichte), ist das Dorf in jüngerer Zeit als Ort der Ideenbildung und Ideenverarbeitung vermehrt in den Blickpunkt der Forschung geraten. Dabei interessiert besonders, wie sich städtische von dörflichen Kommunikations- und Denkformen unterscheiden. Siehe auch Dorfgebiet Globales Dorf Literatur Philip Ajouri, Wolfert von Rahden, Andreas Urs Sommer: Das Dorf. (= Zeitschrift für Ideengeschichte. Heft IX/2, Sommer 2015). C. H. Beck, München 2015, ISBN 978-3-406-67382-5. William Foerste: Zur Geschichte des Wortes Dorf. In: Studium Generale 16, 1963, S. 422–433. Herbert Jankuhn, Rudolf Schützeichel, Fred Schwind (Hrsg.): Das Dorf der Eisenzeit und des frühen Mittelalters. Siedlungsform – wirtschaftliche Funktion – soziale Struktur. (= Abhandlungen der Akademie der Wissenschaften Göttingen, Phil.-Hist. Klasse 3. 101). Vandenhoeck & Ruprecht, Göttingen 1977. Anneliese Krenzlin: Beiträge zur Kulturlandschaftsgenese in Mitteleuropa. Gesammelte Aufsätze aus vier Jahrzehnten (hrsg. von Hans-Jürgen Nitz und Heinz Quirin). Steiner, Wiesbaden 1983, ISBN 3-515-04035-8. Gerhard Stenzel: Das Dorf in Österreich. Mit Fotos von Lothar Beckel und Lorenz Schönemann. Kremayr & Scheriau, Wien 1985. Henning Schöpke-Papst: Dörfer in Deutschland. Braunschweig 1989. Werner Rösener: Bauern im Mittelalter. 4., unveränd. Auflage. C.H. Beck, München 1993, ISBN 3-406-30448-6. Cay Lienau: Die Siedlungen des ländlichen Raumes. 3. Auflage. Braunschweig 1997. Rainer Schreg: Dorfgenese in Südwestdeutschland. Das Renninger Becken im Mittelalter. (= Materialhefte zur Archäologie in Baden-Württemberg. 76/2006). Theiss, Stuttgart 2006, ISBN 3-8062-2066-2. Rainer Schreg: Die Archäologie des mittelalterlichen Dorfes in Süddeutschland. Probleme – Paradigmen – Desiderate. In: Siedlungsforschung. Archäologie – Geschichte – Geographie. 24/2007, S. 141–162. Marco Bellabarba, Hannes Obermair, Hitomi Sato (eds): Communities and Conflicts in the Alps from the Late Middle Ages to Early Modernity (= Fondazione Bruno Kessler. Contributi/Beiträge. 30). Il mulino – Duncker & Humblot, Bologna/Berlin 2015, ISBN 978-88-15-25383-5 bzw. ISBN 978-3-428-14821-9. Hansjörg Küster: Hat das Modell Dorf noch eine Zukunft? In: Jahrbuch für das Oldenburger Münsterland 2012. (Hrsg.: Heimatbund für das Oldenburger Münsterland), Vechta 2011, ISBN 978-3-941073-10-4, S. 204–216. Werner Troßbach, Clemens Zimmermann: Die Geschichte des Dorfes. Von den Anfängen im Frankenreich zur bundesdeutschen Gegenwart. Ulmer Verlag, Stuttgart 2006. Gisbert Strotdrees: Es gibt keine abgelegenen Orte mehr. Anmerkungen zur Gegenwart und Zukunft der ländlichen Räume. Vortrag zur Reihe „Zukunft der Dörfer“ der Universität Vechta 2019/20. In: Heimat Westfalen. Heft 1 (2020) (PDF; 11 MB). Gerhard Henkel: Das Dorf. Landleben in Deutschland gestern und heute. 4. Auflage, 345 S.; K.Theiss, Stuttgart 2013. ISBN 978-3-8062-3984-3 Weblinks Einzelnachweise Siedlungsform Agrarsoziologie Verwaltungseinheit Volkskunde
Q532
3,922.073822
22233
https://de.wikipedia.org/wiki/Dnipro
Dnipro
Dnipro (, oder ; Name von 1926 bis 2016 , oder Dnjepropetrowsk) ist mit etwa einer Million Einwohnern nach Kiew, Charkiw und Odessa die viertgrößte Stadt der Ukraine und das administrative Zentrum der Oblast Dnipropetrowsk und des Rajon Dnipro. Sie liegt an drei Seiten der Mündung der Samara in den hier aufgestauten Dnepr (ukrainisch Dnipro) und rund 400 km südöstlich der Hauptstadt Kiew in der zentralöstlichen Ukraine. Als historisches Zentrum des Gebiets Neurussland und des Gouvernement Jekaterinoslaw war die Stadt ein bedeutendes Zentrum in der südlichen Ukraine. Sie war eines der wichtigsten Zentren der Kernenergie-, Waffen- und Raumfahrtindustrie der Sowjetunion und ist der Standort von KB Juschnoje, einem großen Entwickler, und Juschmasch, einem großen Hersteller von Raketen und Satelliten. Wegen der ansässigen Rüstungsindustrie war Dnipro bis in die 1990er Jahre eine geschlossene Stadt. Sie ist ein wichtiger Finanz- und Industriestandort der Ukraine, der Sitz mehrerer Finanzinstitute, darunter der größten (nichtöffentlichen) ukrainischen Bank, der Privatbank. Darüber hinaus ist die Stadt durch das hier befindliche Operative Armeekommando Ost ein bedeutender Standort der ukrainischen Armee. Geographie Lage Durch eine uneinheitliche Terminologie wird die Stadt (historisch) oft zur Ost- oder Südukraine gezählt. Geographisch liegt sie aber am ehesten in der Zentralukraine, jedoch mit einer erkennbaren Tendenz in Richtung Süden und Osten. Die Stadt liegt im zentralen Teil der Oblast Dnipropetrowsk, die eine der 24 Oblaste der Ukraine ist. Dnipro liegt an drei Seiten der Mündung der Samara in den durch die Stadt verlaufenden Dnepr und im Durchschnitt über dem Meeresspiegel. Der Dnepr fließt vom Kamjansker Stausee aus in südöstlicher Richtung durch die Stadt, ändert im Stadtgebiet seinen Verlauf in Richtung Süden und fließt weiter in Richtung Saporischschja. Mit etwa einer Million Einwohnern stellt Dnipro die größte Stadt am Dnepr flussabwärts von Kiew dar. Innerhalb der Stadt ist der Fluss 0,9 bis 2,5 Kilometer breit. Das Land um die Stadt ist größtenteils flach und einfach zu besiedeln, was auch erklärt, warum es der Stadt gelungen ist, in den nur etwa 200 Jahren ihres Bestehens zur viertgrößten der Ukraine zu werden. Die meisten Wohn-, Gewerbe- und Industriegebiete sowie der Stadtkern befinden sich am rechten Dneprufer, das weniger sumpfig als das linke Flussufer ist. Dort ist es jedoch inzwischen auch gelungen, große Flächen zu besiedeln (Stadtteile: Rajon Amur-Nischnjodnipro, Rajon Industrial und Teile des Rajon Samara). Das Stadtgebiet hat eine Fläche von 405 km² und erstreckt sich dabei über 22 km in Nord-Süd- und 33 km in Ost-West-Richtung. Die höchste Erhebung der Stadt liegt 188 Meter über dem Meeresspiegel in einem Waldgebiet im Südwesten der Stadt, die niedrigste Höhenlage ist die Wasserhöhe des Dnepr mit 52 Metern über dem Meeresspiegel. Großstädte im Umkreis sind Saporischschja, Krywyj Rih, Kamjanske, Krementschuk, Poltawa und Pawlohrad. Die Küsten des Schwarzen und des Asowschen Meeres sind etwa gleich weit entfernt. * Entfernungsangaben beziehen sich auf die Entfernung (Luftlinie) bis zum Stadtzentrum. Agglomeration Dnipro In der Agglomeration Dnipro leben etwa 1,68 Millionen Menschen. Sie ist nach der Agglomeration Kiew die zweitgrößte der Zentralukraine und nach den Agglomerationen Kiew, Charkow und Donezk die viertgrößte der Ukraine. Zur Agglomeration gehören die Rajone Dnipro, Mahdalyniwka, Nowomoskowsk, Synelnykowe, Solone, Krynytschky und Petrykiwka sowie die kreisfreien Städte Kamjanske, Werchnjodniprowsk, Wilnohirsk und Synelnykowe. Geologie Die Stadt liegt in der Osteuropäischen Ebene im Südosten des ukrainischen Schildes am Übergang zum Prypjat-Dnepr-Donezk-Graben. Der kristalline Untergrund besteht hauptsächlich aus Granit und Migmatit des mittleren Archaikum, darunter befinden sich Schichten von Biotitgneis und Amphibolit. Der Stadtkern mit der Dniproer Altstadt befindet sich im rechtsufrigen Teil der Stadt, welcher teilweise auf dem Dneprhochland liegt, während die linksufrigen Stadtteile im Dneprtiefland liegen. Eine Anhöhe im Rajon Samara, die ein Teil des Asowschen Hochland ist, bewirkt eine Änderung der Fließrichtung des Dnepr nach Süden. Im Stadtgebiet befinden sich mehrere Inseln und Halbinseln, die erwähnenswerteste ist die Klosterinsel. Zwischen dem rechten Dneprufer und der Klosterinsel befindet sich der Bischof-Kanal, ein 1850 Meter langer Seitenarm des Dnepr. Darüber hinaus befinden sich die Dneprinseln Grüne Insel (ukr. ), die Schewski-Insel (ukr. ), die Olexijiwski-Insel (ukr. ) sowie die Nehrung Kosa (ukr. ) und die Feinberg-Halbinsel (ukr. ) im Stadtgebiet. Bis zur Errichtung des großen Staudamms bei Saporischschja stürzte der Dnepr südlich von Dnipro über zahlreiche Stromschnellen, die eine durchgehende Befahrung verhinderten und über Jahrhunderte ein Verkehrshindernis darstellten. Klima Im Raum Dnipro herrscht ein mediterranes Klima vor mit milden (manchmal kalten), meist feuchten Wintern und warmen, trockenen Sommern. Seltener herrscht ein semiarides Steppenklima. Somit ähnelt das Klima jenem von beispielsweise Redding (Kalifornien) oder Reno (Nevada), hat jedoch vergleichsweise mehr Regentage und mehr Niederschlag, wodurch Regenschauer durchschnittlich kleiner ausfallen. Die Niederschlagsverteilung ist typisch mediterran mit hohen Niederschlägen in den Wintermonaten und geringen in den Sommermonaten. Die Sommermonate Juni, Juli und August sind nahezu niederschlagsfrei. Das städtische Mikroklima wird maßgeblich vom Dnepr beeinflusst, in dessen Nähe die Luftfeuchtigkeit ansteigt. Die Luftfeuchtigkeit steigt im Oktober an und erreicht zwischen November und März über 80 %. Die Temperaturen sind kühler, mit einem Jahresdurchschnitt von 10,9 °C, kalte Winter (0 bis −4 °C im Januar) und die höchste Frequenz freeze (74 Tage pro Jahr im Durchschnitt). Schnee fällt im Durchschnitt 41 Tage pro Jahr, aber schwere Fälle sind selten. Der Sommer ist heiß, obwohl durch die Höhenlage der Stadt temperiert (Tageshöchsttemperaturen durchschnittlich um 28 °C). Die höchste je gemessene Temperatur (von 40,9 °C) wurde 1950 und die kälteste (von −30,0 °C) 1955 registriert. Die Durchschnittstemperatur stieg während des letzten Jahrhunderts um 1,0 °C. Die mittlere Windgeschwindigkeit entspricht Windstärke 3 und nur im Februar 4 auf der Beaufortskala und ist mit über 5 m/s am höchsten zwischen Dezember und April und mit unter 5 m/s zwischen Mai und Oktober. Die Windgeschwindigkeit ist am niedrigsten im Juli und am höchsten im Februar. Die angenehmsten Reisemonate sind der Mai und Mitte September bis Mitte Oktober. Die Monate Juni bis August können sehr heiß werden. Das milde Klima begünstigt den Weinbau. Stadtname Im Zuge der bewegten Geschichte der Stadt wurde auch ihr Name des Öfteren verändert. Ein englischer Spitzname lautet „“, zu Deutsch „Raketenstadt“, weil dort das Konstruktionsbüro KB Juschnoje seinen Sitz hat und unter anderem auch die Dnepr-Raketen gebaut wurden. Die meisten Einheimischen nennen die Stadt kurz „Dnepr“ (rus. Днепр, ukr. Дніпро), dies verstehen aber auch die meisten nicht einheimischen Personen. Es gab immer wieder Bestrebungen, den Namen der Stadt zu ändern, wobei sowohl „Sitscheslaw“ als auch „Jekaterinoslaw“ beziehungsweise „Katerinoslaw“ vorgeschlagen wurden. Am 15. Mai 2015 unterschrieb der ukrainische Präsident Petro Poroschenko ein Gesetz zum Verbot kommunistischer und nationalsozialistischer Propaganda, das sich auch auf im Sinne des Gesetzes propagandistisch belastete Orte und Straßen bezieht. Diese sollten binnen sechs Monaten umbenannt werden. Die Stadt gründete daraufhin eine Kommission, die eine Lösung erarbeiten sollte. Da sich der Name Dnipropetrowsk auf Grigori Iwanowitsch Petrowski, den ehemaligen Vorsitzenden des Obersten Sowjets der Ukrainischen SSR, bezog, wurde die Stadt am 19. Mai 2016 auf Beschluss der Werchowna Rada in Dnipro umbenannt. Zuvor war eine Eingabe des Dnipropetrowsker Stadtrats von 2015 verworfen worden, den alten Namen beizubehalten, die Endung „petrowsk“ aber mit dem Heiligen Petrus zu verknüpfen. Zeitlinie der Namensänderungen Jekaterinoslaw / Katerinoslaw 1776–1797 Noworossijsk 1797–1802 Jekaterinoslaw / Katerinoslaw 1802–1917 Sitscheslaw 1917–1918 (nicht offiziell) Jekaterinoslaw / Katerinoslaw 1918–1926 Krasnodniprowsk 1926 (geplant; nicht offiziell) Dnepropetrowsk / Dnipropetrowsk 1926–2016 Dnipro 2016– Bedeutung Jekaterinoslaw () beziehungsweise Katerynoslaw () – bedeutet so viel wie „Zu Ehren Katharinas“. Noworossijsk () – der Name geht auf die Provinz Neurussland (Noworossija) zurück. Sitscheslaw (, ) – bedeutet in etwa „Zu Ehren der Sitsch“. Krasnodniprowsk (, ) – etwa „Rotes Dniprowsk“, eine Zusammensetzung der Farbe Rot als Symbol für den Kommunismus und die Sowjetunion und Dnepr. Dnipropetrowsk ( [], / Dnepropetrowsk []) – ist der Name, den die Stadt 1926 in der Sowjetunion erhielt, eine Zusammensetzung aus Dnepr und dem Namen des damaligen Vorsitzenden des Obersten Sowjets der Ukrainischen SSR, Grigori Iwanowitsch Petrowski. Geschichte Von der Antike bis zur frühen Neuzeit Eine erste Besiedlung des Gebiets um Dnipro fand schon im Paläolithikum statt. Es folgten viele verschiedene Kulturen, unter anderem die Tripolje-Kultur, die Kurgankultur, die Jamnaja-Kultur, die Skythen und die Sarmaten. Im Zuge der Völkerwanderung zogen hier auch Proto-Bulgaren durch, bevor das Gebiet um die Stadt um 750 zum jüdischen Chasarenreich und zum Handelsnetz der Radhaniten gehörte. Um 900 n. Chr. kamen die dem Chasarenreich tributpflichtigen Magyaren in das Gebiet, womit das Gebiet um Dnepr und Samara ein möglicher Kandidat für Etelköz ist. Aufgrund des Drucks der Petschenegen und der mit ihnen verbündeten Bulgaren unter Zar Simeon I. (von 913 bis 927 Zar des Bulgarischen Reichs) zogen die Magyaren in das pannonische Becken weiter. Etwa vom 8. bis zum 11. Jahrhundert verlief durch das heutige Stadtgebiet über den Dnepr der Handelsweg zwischen Skandinavien und Byzanz, einer der wichtigsten Handelswege Osteuropas. Über Jahrhunderte verhinderten die zahlreichen Stromschnellen weiter stromabwärts hier die Weiterfahrt auf dem Wasser und zwangen Reisende zum Anlanden - eine verwundbare Lage, die von den umwohnenden Nomaden genutzt wurde, um sie zu überfallen oder Tribut zu erpressen. Die älteste Nennung bestimmter einzelner Orte in der Region ist dann auch eine Auflistung der Stromschnellen, in der byzantinischen Abhandlung De Administrando Imperio (ca. 950). Nach der Auflösung der Goldenen Horde wurde das Gebiet um Dnipro im 15. und 16. Jahrhundert von den aus Polen-Litauen geflohenen Ruthenen besiedelt, die freie Kosakengemeinschaften gründeten und mit der Zeit einen Staat bildeten (siehe auch Saporoger Kosaken). Die Kosaken kämpften gegen die polnische Herrschaft und wehrten sich gegen die häufigen Überfälle des tatarischen Krimkhanats. Um gegen die Kosaken aufzutreten und ansässige Bauern davon abzuhalten, sich den Kosaken anzuschließen, errichteten die Polen 1635 etwa 10 km südlich der heutigen Stadt die Festung Kodak. Noch im Jahr der Errichtung wurde sie von Kosaken unter Iwan Sulyma erobert und niedergebrannt. 1639 wurde die Festung von den Polen in doppelter Größe wiedererrichtet. In ihrem Schutz siedelten sich immer mehr Menschen in der entstehenden Stadt Stari Kodaki an, anstatt sich den Saporoger Kosaken anzuschließen. Die Festung wurde 1648 im Zuge des Chmelnyzkyj-Aufstandes sieben Monate lang belagert und ergab sich dann den Kosakentruppen. Sie wurde aufgrund des Friedensvertrages vom Pruth 1711 von den Russen geschleift. Die Siedlung Stari Kodaki gilt als Vorgängerin der Stadt Dnipro, weil sie als erste befestigte und dauerhafte Siedlung in der Umgebung angesehen wird. Jekaterinoslaw Nach dem Russisch-Osmanischen Krieg von 1768 bis 1774, als der Einfluss des Osmanischen Reiches nördlich des Schwarzen Meeres beseitigt war, wurde im Zuge des sogenannten griechischen Plans der Kaiserin Katharina der Großen ein umfassendes Erschließungsprogramm für die neueroberten südlichen Gebiete angelegt. Unter der Leitung des Fürsten Grigori Potjomkin wurde das Gouvernement Neurussland geschaffen, dessen Hauptstadt das 1776 gegründete Jekaterinoslaw wurde. Die Lage der Stadt auf dem Gebiet des heutigen Pidhorodne am Zusammenfluss von Samara und Kiltschen (ukr. ) war jedoch unvorteilhaft, da aufsteigendes Quellwasser die Stadt regelmäßig in einen Sumpf verwandelte. Deshalb wurde die Stadt an die heutige Stelle verlegt. Am 9. Mai 1787 wurde in Anwesenheit Katharinas II. und von Kaiser Joseph II. der Grundstein gesetzt. Dazu war die Zarin mit einer Flottille von 80 Schiffen von Kiew angereist, um das Zentrum eines „Neuen Russland“ zu gründen; die neue Stadt war auserkoren, ein „Petersburg des Südens“ und ein „Athen des Nordens“ zu werden. 1805 hatte sie 2634 Einwohner (davon 376 Juden). Von 1802 bis 1925 war sie Hauptstadt des Gouvernements Jekaterinoslaw. Im 19. Jahrhundert wurde Jekaterinoslaw zu einem Zentrum der Industrialisierung, nachdem die Stadt an das sich rasch verdichtende Eisenbahnnetz angeschlossen worden war. 1884 wurde im Zuge des Baus der Eisenbahnstrecke von Zentralrussland auf die Krim die doppelstöckige Eisenbahnbrücke über den Dnepr fertiggestellt. 1887 ging die Alexander-Hütte, ein Stahl- und Walzwerk, in Betrieb (heute: Metallurgisches Werk Petrowski), das zeitweise 30.000 Arbeiter beschäftigte, 1889 das Röhrenwerk der belgischen Aktiengesellschaft Ch. & H. Chaudoir (Liège), dazu später das Werk Chaudoir-B (nach 1917: Komintern), 1895 die Gießerei von Johann Jakob Esau & Co. (nach 1917: Mähdrescherfabrik Woroschilow) sowie das Walzwerk Gantke (nach 1917: Karl Liebknecht) und die Eisenbahnreparaturwerkstätten (nach 1917: Kirow-Werke). Die Bevölkerungszahl wuchs rasant, von 1860 bis 1900 verzehnfachte sie sich. Ein Drittel von ihnen waren Juden, eine starke jüdische Arbeiterbewegung entwickelte sich. 1883 und 1906 entlud sich der Antisemitismus in Judenpogromen. Revolutionszeit Im November 1917, nach der Februarrevolution, gehörte die Stadt wie das gesamte Gouvernement Jekaterinoslaw zur Ukrainischen Volksrepublik. Jedoch marschierten schon am 9. Januar 1918 Einheiten der Bolschewiki ein und nahmen die Stadt ein. Von diesen wurde sie bis zum April 1918 der Sowjetrepublik Donezk-Kriwoi Rog angegliedert. Ab April 1918 gehörte die Stadt zur deutschen Besatzungszone. Die Zentralna Rada wurde aufgelöst und Pawlo Skoropadskyj als Hetman des Marionettenstaates Ukrainischer Staat eingesetzt. Vom Januar 1919 bis zum 29. Juni 1919 gehörte die Stadt zur roten Ukrainischen Sozialistischen Sowjetrepublik und anschließend zum von der Weißen Bewegung kontrollierten Gebiet des Weißen Südrusslands (rus. ). Die Stadt erlebte während der Jahre des Russischen Bürgerkrieges keine Schlachten oder Zerstörungen. Sie wurde zweimal von Soldaten der Machnowschtschina eingenommen, vom 27. bis 31. Dezember 1918 und vom 9. November bis 9. Dezember 1919. 1918 wurden die vereinigten Streitkräfte der Ukrainischen Volksrepublik und des Ukrainischen Staates, die sogenannten Petljurowzi (rus. ) vertrieben. Während der Zugehörigkeit zur Ukrainischen Volksrepublik beziehungsweise zum ukrainischen Staat wurde die Nationale Oles-Hontschar-Universität Dnipro gegründet und die Stadt in Sitscheslaw umbenannt, dieser Name galt jedoch nie offiziell und hatte nur ein Jahr Bestand. 1919 war Dnipro (wieder Jekaterinoslaw genannt) Hauptstadt der Machnowschtschina, nachdem Einheiten der Weißen Armee vertrieben worden waren. Anschließend wurde die Stadt am 30. Dezember 1919 von der Roten Armee erobert, die im Bürgerkrieg endgültig siegte. Die Stadt in der Sowjetzeit Während des Holodomor im Jahre 1933 verhungerten mehrere Millionen Menschen in der Ukraine. In dieser Zeit stellte die Geheimpolizei GPU viele Fälle von Kannibalismus fest. Etwa sieben Prozent aller Strafverfahren aufgrund von Kannibalismus, der mit mindestens zehn Jahren oder der Todesstrafe geahndet wurde, hatten ihren Ursprung in der Oblast Dnipropetrowsk. Im Zweiten Weltkrieg erlitt die Stadt enorme Zerstörungen. Im September 1941 sprengten Soldaten der Roten Armee auf dem Rückzug vor Truppen der Wehrmacht eine 200 Meter lange Bresche in die Staumauer und der 65 km lange Stausee lief leer. Die Deutschen ließen die Staumauer wiederaufbauen; Ende 1942 war sie fertig. Im Oktober 1943 mussten sie sich zurückziehen und bombardierten die Staumauer aus der Luft. 1944 bis 1950 wurde der Staudamm wiederaufgebaut. Deutsche Besatzer verübten einen Massenmord an jüdischen Einwohnern. An den Massenerschießungen war der SS-Führer Friedrich Jeckeln maßgeblich beteiligt. Am 13. Oktober 1941 wurden dabei 11.000 Juden ermordet. Als im Herbst 1941 eine Hungersnot in der Stadt nicht mehr zu übersehen war, untersagte (so die „Ereignismeldung UdSSR“ Nr. 135 der Einsatzgruppe C vom 19. November 1941) der NS-Staatssekretär für Ernährung und Landwirtschaft Herbert Backe die Einführung von Lebensmittelkarten, da diese „Rechtsansprüche auf Belieferung darstellten“. In der Stadt gab es die beiden Kriegsgefangenenlager 417 und 460 (ab 1949) für deutsche Kriegsgefangene des Zweiten Weltkriegs. Schwer Erkrankte wurden im Kriegsgefangenenhospital 5905 versorgt. Nach dem Zweiten Weltkrieg kam es zum Wiederaufbau, zur weiteren Industrialisierung und zu einem schnellen Bevölkerungswachstum, das Dnipropetrowsk in den 1980er Jahren zu einer Millionenstadt werden ließ. Unabhängige Ukraine seit 1991 Im Jahr 2007 kam es in der Stadt zu einer Mordserie, deren Täter als Dnepropetrovsk Maniacs bezeichnet werden. Dabei wurden 21 Menschen, überwiegend Wehrlose und Obdachlose, umgebracht. Bei den Tätern, die 2008 festgenommen werden konnten, handelte es sich um drei Männer im Alter zwischen 19 und 26 Jahren, die sich bei ihren Verbrechen filmten. Sie kamen aus gutem Hause und begründeten ihre Taten damit, dass sie den „Kick“ des Tötens fühlen und im späteren Leben Erinnerungen an ihre Jugend haben wollten. Am 13. Oktober 2007 gab es in einem Wohnhaus im Stadtviertel Peremoha des Stadtrajons Sobor eine Gasexplosion, bei der 22 Menschen starben. Kurz vor Beginn der Fußball-Europameisterschaft 2012, die auch in der Ukraine stattfand, wurden am 27. April 2012 fast gleichzeitig an belebten Stellen der Stadt mehrere Bombenanschläge verübt. Mindestens 29 Menschen wurden verletzt. Es gab keine Bekennervideos oder Bekennerschreiben von Seiten der Täter gegeben. Dnipropetrowsk gehörte zu den Städten, in welche die OSZE am 21. März 2014 Beobachter aufgrund des Krieges in der Ukraine entsandte. In den Tagen und Wochen zuvor war es in Dnipropetrowsk, unter anderem am 1. März 2014, zu prorussischen Protesten mit 1000 bis 3000 Teilnehmern gekommen, bei denen Demonstranten ein Referendum nach dem Vorbild der Krim gefordert hatten. Am 2. März 2014 fand eine proukrainische Gegendemonstration mit etwa 10.000 Teilnehmern statt. Am 24. Februar 2022 begannen russische Streitkräfte auf Befehl des russischen Präsidenten Putin den russischen Angriffskrieg gegen die Ukraine. Seitdem war Dnipro mehrfach schweren Raketenangriffen ausgesetzt, die zahlreiche zivile Todesopfer forderten. Der bis dato verheerendste dieser Raketenangriffe erfolge am 14. Januar 2023 auf auf ein Wohnhaus in der Naberezhna-Peremohy-Straße 118 in Dnipro mit 45 Toten (davon 6 Kinder), 79 Verletzten und 39 geborgenen Menschen. Am 29. April 2023 besuchte der tschechische Präsident Petr Pavel die Stadt Dnipro, die am Vortag Ziel eines russischen Raketenangriffs gewesen war. Dort traf er sich mit Serhiy Lysak, dem Regionalgouverneur der Region Oblast Dnipropetrowsk, über deren Wiederherstellung die Tschechische Republik die Schirmherrschaft übernommen hat. Er war der erste ausländische Präsident, der seit Beginn der russischen Invasion im Februar 2022 in die Ostukraine reiste. Er besuchte die Ukraine gemeinsam mit der slowakischen Präsidentin Zuzana Čaputová. In der Nacht vom 21. auf den 22. Mai 2023 griff Russland Dnipro mit 16 Marschflugkörpern und 20 Kampfdrohnen an. Heraldik Dnipro verfügt mit einem Stadtwappen und einer Stadtflagge über zwei eigene heraldische Symbole. Beiden sind die Hauptfarben weiß und blau gemeinsam. Wappen Das Wappen der Stadt wurde am 6. September 2001 durch Beschluss des Dnipropetrowsker Stadtrates offiziell angenommen. Kleines Stadtwappen Blasonierung Auf blauem spanischen Schild ein silberner Säbel, die Spitze zeigt nach oben rechts, und gekreuzter Pfeil, darüber drei silberne siebenzackige Sterne in V-Form. Beschreibung Das Wappen basiert zu großen Teilen auf dem der polnischen und später kosakische Festung Kodak von 1770. Dazu gehören der durch einen Säbel gekreuzte Pfeil und der siebenzackige Stern. Es enthält jedoch weder das galoppierende Pferd noch den Halbmond, die Krone oder die Initialen „K.P.P.P.“, die auf dem Wappen Kodaks zu finden sind. Die drei Sterne haben verschiedene Bedeutungen, unter anderem als Vereinigung von Vergangenheit, Gegenwart und Zukunft und auch als die in drei Teile gespaltene Stadt. Sie können auch für die beiden Schlüsselindustrien der Stadt, Metallurgie sowie Weltraum- und Raketenindustrie, gelten. Auf die Metallurgie bezogen werden sie als Tropfen, wie sie beim Gießen entstehen, gedeutet. Außerdem bilden die drei Sterne ein V, das als victoria (lateinisch für Sieg) gedeutet werden kann. Drei und sieben sind auch auf Grund religiöser Zahlensymbolik verbreitete Zahlen für Wappenelemente. Das Säbel und der Pfeil, der in der Heraldik für die Attribute Wachsamkeit, Bereitschaft zum Kampf und Zielstrebigkeit steht und die Sterne sind vollständig silbern (weiß als Druckfarbe). Die Schildfarbe blau geht auf das Wappen Jekaterinoslaws vom 2. August 1811 zurück. Es symbolisiert den Dnepr und ist eine der Landesfarben der Ukraine. Großes Stadtwappen Das Große Stadtwappen ruht, zusätzlich zur Beschreibung des kleinen Stadtwappens, auf einem Postament aus Getreide, darunter ist meist noch als Wahlspruch der Name der Stadt abgebildet. Den oberen Schildrand ziert eine dreizinnige goldene Mauerkrone. Geschichte des Wappens Stadtflagge Die aktuelle Stadtflagge wurde auf Beschluss des Dnipropetrowsker Stadtrates vom 18. April 2012 in einem Wettbewerb ermittelt. Der Wettbewerb fand in zwei Abschnitten statt, im ersten wurden von allen eingereichten Entwürfen die besten zehn ermittelt und im zweiten Schritt wurde am 5. Dezember 2012 der Sieger bekanntgeben. Die Stadtflagge zeigt das zentrierte große Stadtwappen von Dnipro samt Banner mit dem Stadtnamen auf weißem Hintergrund mit darunter befindlichem blauem Heroldsbild des Flusses Dnepr. Politik Verwaltung Die Stadtverwaltung Dnipro besteht aus dem alle vier Jahre gewählten Stadtrat (ukr. ), dem 119 Stadträte und der Bürgermeister als Vorsitzender des Stadtrates angehören. Der Stadtrat entspricht in der Machtstruktur dem legislativem, während der Bürgermeister dem exekutivem Organ der kommunalen Selbstverwaltung entspricht. Der letzte gewählte Bürgermeister ist der 1999 nach dem Abgang seines Vorgängers als Übergangsbürgermeister eingesetzt und in den Bürgermeisterwahlen von 2000, 2002, 2006 und 2010 bestätigte Iwan Kulitschenko. Kulitschenko legte sein Amt am 21. November 2014 ab. Anschließend war Maxim W. Romanenko bis zum 4. März 2015 und danach Galina Ilinitschna Bulawka Stellvertretende Bürgermeisterin. Seit dem 17. November 2015 ist Borys Filatow von der Partei „UKROP“ Bürgermeister, nachdem er sich mit 184.874 gegen Oleksandr Wilkul mit 158.752 Stimmen durchsetzte. Nach den Kommunalwahlen 2010 sind Blok Juliji Tymoschenko, Block Unsere Ukraine – Nationale Selbstverteidigung und Witsche (ukr. ) nicht mehr im Stadtrat vertreten. An der Wahl 2010 beteiligten sich 300.167 Personen, davon stimmten 31.188 gegen alle zur Wahl stehenden Parteien und 9.397 Stimmen waren ungültig. Der Stadtrat setzt sich nach den Wahlen vom 31. Oktober 2010 wie folgt zusammen: * unbestätigt Stadtgliederung Wie bei ukrainischen Städten üblich, ist Dnipro verwaltungstechnisch in Stadtbezirke (sogenannte Stadtrajons) unterteilt, deren Gebiete im Allgemeinen nicht den historischen Ortsteilen, sondern durch Flüsse, große Straßen oder Eisenbahnlinien voneinander räumlich abgetrennten Teilen des Stadtgebietes entsprechen. Insgesamt ist die Stadt in acht Stadtrajone und die Siedlung städtischen Typs Awiatorske unterteilt. Die Stadtrajone untergliedern sich in Stadtviertel. Diplomatische Vertretungen In der Stadt befinden sich eine Zweigstelle der Botschaft des Staates Israel., die Honorarkonsulate der Republik Litauen und der Tschechischen Republik sowie sieben Visa-Servicestellen für die Länder Deutschland, Litauen, Polen, Griechenland, Ungarn, Italien und Bulgarien. Partnerstädte Dnipro ist Partnerstadt von: Herzlia im Bezirk Tel Aviv, Israel seit 3. August 1993 Kutaissi in der Region Imeretien, Georgien seit 24. Februar 1994 (bekräftigt und intensiviert im September 2007) Xi’an in der Provinz Shaanxi, China seit 8. Mai 1995 Taschkent, Usbekistan seit Mai 1998 Vilnius, Litauen seit 29. September 1998 Region Durham in der Provinz Ontario, Kanada seit 6. Mai 2000 Wałbrzych in der Woiwodschaft Niederschlesien, Polen seit 4. Juni 2001 Žilina im Žilinský kraj, Slowakei seit 13. Februar 2003 Thessaloniki in der Region Zentralmakedonien, Griechenland seit 18. April 2003 Dalian in der Provinz Liaoning, Volksrepublik China seit 24. Februar 2007 Bern im Kanton Bern, Schweiz seit 21. Februar 2008 Stettin in der Woiwodschaft Westpommern, Polen seit 28. Mai 2010 Szolnok im Komitat Jász-Nagykun-Szolnok, Ungarn seit 28. April 2013 im Bundesstaat Massachusetts, USA Ploiești im Historischen Gebiet Große Walachei und der Planungsregion Südost, Rumänien Gəncə (auch Gandscha), Aserbaidschan Köln, Deutschland seit 27. Oktober 2022 besteht eine Projektpartnerschaft zwischen Dnipro und Köln Bis 7. September 2016 bestanden Partnerschaften zu folgenden Städten: Samara im Föderationskreis Wolga, Russland seit 25. Mai 1993 Krasnojarsk in der Region Krasnojarsk, Russland seit Mai 2007 Ulan-Ude in der Republik Burjatien, Russland seit 26. September 2011 Bevölkerung In der Stadt mit ihren 986.887 Einwohnern (Stand: 1. November 2015) lebt etwa ein Drittel der 3.258.705 Millionen Einwohnern der Oblast Dnipropetrowsk (Stand: 1. November 2015) und etwa 2,3 Prozent der gesamten ukrainischen Bevölkerung von 42.854.106 Menschen (Stand: 1. Mai 2015). Damit ist sie die viertgrößte Stadt der Ukraine. Die Bevölkerungsdichte beträgt 2.437 Einwohner je km² (Stand: 1. November 2015) und ist damit etwa 24-mal so hoch wie in der Oblast Dnipropetrowsk und etwa 34-mal größer als in der gesamten Ukraine. Die Bevölkerung setzt sich wie folgt zusammen (Stand 2008): Ukrainer (79,3 %), Russen (17,6 %), Sonstige, beispielsweise Weißrussen, Juden, Armenier und Aserbaidschaner (3,1 %). Die folgende Tabelle zeigt die Einwohnerzahlen seit dem Beginn der Erfassung im Jahr 1782 an. Auffallend ist die annähernde Verdoppelung der Einwohnerzahl binnen eines Jahrzehnts in den 1930er-Jahren – eine Folge der Zwangskollektivierung und der resultierenden Landflucht in der Sowjetunion zu jener Zeit. Ein signifikanter Bevölkerungsrückgang und hohe Fluktuationsraten war hingegen in den Jahren der Februar- und Oktoberrevolution, des Russischen Bürgerkriegs und des Ukrainisch-Sowjetischen Krieges (etwa zwischen 1914 und 1923) zu verzeichnen. Die Stadt erreichte erstmals zwischen 1975 beziehungsweise 1976 eine Million Einwohner, die höchste Bevölkerungszahl ihrer Geschichte mit 1.203.000 Einwohnern erreichte sie 1991, seitdem sinkt die Stadtbevölkerung kontinuierlich, wie in den meisten Städten der Ukraine vor allem während der Wirtschaftskrisen der 1990er-Jahre. Seit 2014 hat die Stadt die Marke von einer Million Einwohnern wieder unterschritten. Es liegen folgende Angaben zur Bevölkerungsentwicklung vor: Anmerkungen Fett: Offizielle Volkszählungen * In einigen Quellen um wenige bis etwa 2.000 Einwohner unterschiedliche Angaben Religion Die meisten Einwohner sind orthodoxe Christen. Sehr viele jüdische Einwohner sind inzwischen in den Westen oder nach Israel ausgewandert, aber eine erhebliche Zahl prägt, wie bereits zur Sowjetzeit, die Kultur und Wirtschaft der Stadt. Daneben lebt in der Stadt auch eine muslimische Minderheit, überwiegend Krim-Tataren. Bis zum Holocaust war Jekaterinoslaw ein Zentrum jüdischen Lebens in Russland beziehungsweise der Sowjetunion (siehe Schtetl). Bei der ersten russischen Volkszählung von 1897 wurde eine Einwohnerzahl von 112.839 ermittelt. Der jüdische Bevölkerungsanteil betrug 35,8 %, neben 41,8 % Russen und 15,8 % Ukrainern. Darunter befanden sich auch einige reiche und einflussreiche Personen, aber die meisten dürften Ladenbesitzer, Handwerker und (Hafen-)Arbeiter gewesen sein. Die Stadt galt als eine der am besten organisierten jüdischen Gemeinden Osteuropas und Russlands und unterhielt sowohl humanitäre als auch Bildungseinrichtungen, darunter sogar eine kleine Jeschiwa. Es gab auch eine kleine karäische Gemeinde, welche auch ein Gebetshaus unterhielt. Heute beheimatet die Stadt mit dem Menorah Center, das die städtische Golden Rosen-Synagoge umgibt, das größte jüdische Kulturzentrum der Welt. Seit 2014 erinnert ein Gedenkstein am alten jüdischen Friedhof außerhalb der Stadt an die 4000 dort ermordeten Dnipropetrowsker Juden. Dnipro gehörte bis zum Jahr 2002 zum römisch-katholischen Bistum Kiew-Schytomyr, von dem es abgespalten wurde. Heute gehört es zum neu gebildeten Bistum Charkiw-Saporischschja. Das zuständige Erzbistum ist Lemberg. Die Stadt gehört zum ukrainisch-griechisch-katholischen Erzbischöflichem Exarchat Donezk. Sprache 90 % der Einwohner sprechen Russisch als Alltagssprache. Ukrainisch wird von 40 % der Bewohner fließend beherrscht. Von den restlichen 60 % wird Ukrainisch von der einen Hälfte sehr gut und von der anderen sehr schlecht gesprochen. Staatliche Dokumente werden in ukrainischer Sprache herausgegeben. Auch die meisten Schilder und Wegweiser sind ukrainisch geschrieben. Die Medien sind gemischt russisch und ukrainisch. Das Phänomen, dass sich Gesprächspartner in unterschiedlichen Sprachen (Russisch und Ukrainisch) unterhalten, ist ebenso verbreitet wie beispielsweise das Benutzen des Russischen zu Hause und des Ukrainischen bei der Arbeit. Bildung Sekundarbildung In der Stadt befinden sich etwa 176 Einrichtungen des sekundären Bildungsbereichs, dazu gehören drei Gymnasien und sieben Lyzeen, unter anderem das Finanz- und Wirtschaftslyzeum, das Chemisch-ökologische Lyzeum, das Informationstechnologische Lyzeum, Medizinische Internatslyzeum Dnipro, das Ukrainisch-amerikanische Lyzeum, das Juristische Lyzeum und das Militärlyzeum. Außerdem gibt es drei Fernschulen, fünf Abendschulen, fünf Internate und vier sogenannte Bildungs- und Erziehungsverbände (ukr. , kurz , rus. , kurz ), 28 sogenannte Bildungs- und Erziehungskomplexe (ukr. , kurz , rus. , kurz ), drei sogenannte Bildungs- und Rehabilitationszentren (rus. , kurz ). Zu den sonstigen Schulen gehört eine Waldorfschule, eine Schule für Kinder mit infantiler Zerebralparese und Kinderlähmung, ein Internat für blinde Kinder, die britische Auslandsschule, und ein sogenanntes schulübergreifende Bildungs- und Produktionskombinat. Tertiärbildung Dnipro ist mit 8 Universitäten und 6 Akademien im tertiären Bildungsbereich vertreten und damit eine bedeutende Universitätsstadt und Hochschulstandort. Unter anderem befindet sich hier die 1918 gegründete Nationale Oles-Hontschar-Universität Dnipro sowie die 1899 gegründete Nationale Technische Universität „Dniproer Polytechnikum“, an der auch das Ukrainisch-Deutsche Kultur- und Sprachlernzentrum (Goethe-Institut) beheimatet ist. Weitere Kulturinstitute sind die französische Alliance française, das chinesische Konfuzius-Institut und die russische Stiftung Russki Mir mit verschiedenen Kooperationen und Partnern. Persönlichkeiten In der Stadt Dnipro geborene Persönlichkeiten sind neben anderen der Wissenschaftler Oleksandr Brodskyj, Pionier bei der Herstellung des Schweren Wassers. Der Astronom und Astrophysiker Boris Alexandrowitsch Woronzow-Weljaminow entdeckte die Lichtabsorption durch interstellaren Staub. Der Physiker Edward Ginzton erlangte Bekanntheit durch seine Arbeit an Teilchenbeschleunigern und Klystronen, während Issaak Chalatnikow Singularitäten in der Allgemeinen Relativitätstheorie nachgeht und dafür verschiedene Wissenschaftspreise erhielt. Der Logiker Moses Schönfinkel entwarf die Kombinatorische Logik und veröffentlichte das Entscheidungsproblem, während der Informatiker Leonid Levin sich unter anderem mit der NP-Vollständigkeit beschäftigte und später einen Lehrstuhl an der Boston University bekleidete. Zu politisch aktiven, in Dnipro geborenen Persönlichkeiten gehören beispielsweise Pjotr Bark (Sir Peter Bark), der letzte zaristische Finanzminister, und Grigori Naumowitsch Kaminski, der unter anderem von 1920 bis 1921 Erster Sekretär der Aserbaidschanischen Kommunistischen Partei und von 1936 bis 1937 Gesundheitsminister der Sowjetunion war, der Ex-KGB Chef Wiktor Michailowitsch Tschebrikow, sowie die zweifache Ministerpräsidentin der Ukraine Julija Tymoschenko. Aus dem Bereich des Sport und der Kunst sind zu nennen der deutsche Fußballprofi Roman Neustädter vom Schalke 04, der Violinvirtuose Leonid Borissowitsch Kogan, sowie der Maler, Zeichner, Lithograf und Forschungsreisende Ludwig Choris und der ukrainisch-sowjetische Schriftsteller, Literaturkritiker und Sozialaktivist Oles Hontschar. Der ehemalige Gouverneur der Oblast Dnipropetrowsk, Unternehmer, Sportfunktionär, Mäzen und Mitgründer/-inhaber der PrivatBank, Ihor Kolomojskyj, gehört zu den reichsten Ukrainern. Zu den Personen, die zwar nicht in der Stadt geboren, aber durch ihr Leben, ihre Arbeit und ihr Wirken eng mit Dnipro verbunden sind, zählen u. a. Katharina die Große, durch deren Eroberung von Neurussland der Bau der Stadt erst möglich wurde, und der von ihr eingesetzte Generalleutnant Grigori Alexandrowitsch Potjomkin. Ferner war der Parteichef der Kommunistischen Partei der Sowjetunion von 1964 bis 1982, Staatschef und vierfache Held der Sowjetunion Leonid Iljitsch Breschnew Parteisekretär im Gebietskomitee von Dnipropetrowsk und wurde in der Oblast Dnipropetrowsk geboren. Der russische Nationaldichter und Begründer der modernen russischen Literatur Alexander Sergejewitsch Puschkin wurde aufgrund seiner politischen Ansichten in das damalige Jekaterinoslaw verbannt. Witold Fokin studierte am Bergbauinstitut in Dnipropetrowsk und wurde später Ministerpräsident der Ukraine. Hennadij Boholjubow absolvierte in Dnipropetrowsk ein Studium zum Bauingenieur und gründete mit Ihor Kolomojskyj eine der ersten privaten Kommerzbanken, die PrivatBank, die inzwischen das größte Finanzinstitut der Ukraine ist. Er gilt heute als einer der reichsten Oligarchen des Landes. Kultur und Sehenswürdigkeiten Die Stadt hat viele Kulturgebäude wie Theater, Schauspielhäuser und Tanzbühnen für klassisches Ballett, Volkstänze (russische und ukrainische Tänze, zu denen der Hopak und der Kasatschok gehören). Viele Straßenmusikanten spielen die landestypische Musik und tanzen oft auch dazu. Im Stadtzentrum befindet sich der Gebäudekomplex Most-City Center, der aufgrund seines großen Angebots (Indoor-Eisbahn, Multiplex-Kino, Bowlingzentrum, Casino, Billardsaal und etliche Restaurants und Cafés) als beliebter Treffpunkt und Erholungszentrum gilt. Bauwerke Straßen und Plätze Die Hauptverkehrsstraße der Stadt ist der Dmytro-Jawornyzkyj-Prospekt. Er wurde im 18. Jahrhundert angelegt, erhielt in der Sowjetzeit den heutigen Namen und prägt mit seinen Häusern das Stadtbild. An seinem südlichen Ende befindet sich der bedeutendste Platz der Stadt, der Oktoberplatz, der mit seiner Fläche von 120.000 m² einer der größten Plätze Europas ist und im Sommer als Naherholungsort sehr beliebt ist. Mit der Uferpromenade Dnipro besitzt die Stadt die mit 23 km längste Uferpromenade Europas. Hochhäuser In Dnipro steht der preisgekrönte, mit 123 m Höhe höchste Wolkenkratzer der Ukraine außerhalb Kiews. Bei seiner Fertigstellung im Jahr 2005 war es der höchste Wolkenkratzer der gesamten Ukraine. Sakrale Bauwerke Neben der Verklärungskathedrale gehört die Goldene-Rosen-Synagoge und die seit 1982 in ein Konzerthaus umgewandelte Sankt-Michaels-Kirche zu den bedeutenden Sakralbauwerken der Stadt. Museen Das „Olexander Makarow Nationalzentrum der Raumfahrtjugendausbildung der Ukraine“ wurde auf Ukas des damaligen ukrainischen Präsidenten Leonid Kutschma vom 11. Juni 1996 auf Initiative der ukrainischen Raumfahrtagentur, der „Vereinigung der ukrainische Jugendraumfahrt Suzyrja“ und mit der Unterstützung von Piwdenmasch und KB Juschnoje gegründet. Auf dem Gebiet werden verschiedene Satelliten und Trägerraketen gezeigt, die in der Stadt gebaut wurden. Außerdem werden hier Fachkräfte der Luft- und Raumfahrttechnik ausgebildet. Das am Oktoberplatz gelegene Historische Museum Dnipro, ist eines der größten Museen der Ukraine und besitzt mit dem Diorama zur Schlacht am Dnepr das mit 900 m² größte Diorama der Ukraine und eines der größten der Welt. Das 1914 gegründete Kunstmuseum Dnipro beheimatet heute etwa 8500 europäische sowie orientalische Kunstwerke vom 16. bis zum 21. Jahrhundert und gilt als bedeutendes Zentrum der Petrykiwka-Malerei, die seit 2013 zum immateriellem Weltkulturerbe gehört. 2012 wurde das Museum zur Jüdischen Geschichte und zum Holocaust in der Ukraine im Menorah Center eröffnet. Theater und Philharmonien Die Stadt besitzt 19 Theater und Konzerthäuser. Dazu gehört auch das zum Architekturdenkmal von nationaler Bedeutung erklärte Haus der Orgel- und Kammermusik im Gebäude der 1915 erbauten St.-Nikolai-Kirche. Sie besitzt eine 1987 integrierte, zwölf Tonnen schwere, von Wilhelm Sauer gebaute Orgel mit 30 Registern. Architekturdenkmäler von nationaler Bedeutung In der Stadt befinden sich 21 sogenannte „Architekturdenkmäler von nationaler Bedeutung“, darunter der Studentenpalast (ehemals Potemkinscher Palast), der schon dem Gouverneur Neurusslands Grigori Alexandrowitsch Potjomkin im späten 18. Jahrhundert als Domizil diente und somit eines der ersten Gebäude der Stadt ist. Im Stadtzentrum auf dem Oktoberplatz befindet sich die 1835 erbaute Verklärungskathedrale. Zwischen der Verklärungskathedrale und dem Potemkinschen Palast besteht ein unterirdischer Verbindungstunnel, der während der Sowjet-Zeit als Archiv für Filmmaterial genutzt wurde. Auf dem Oktoberplatz ist auch das Historische Museum beheimatet. Gegenüber dem Oktoberplatz und dem Historischen Museum steht das Hauptgebäude der Nationalen Technischen Universität „Dniproer Polytechnikum“. In der Nähe der Stadt befindet sich die 1635 errichtete polnische Festung Kodak. Auch die 1915 erbaute Sankt-Nikolai-Kirche, seit 1982 mit dem Haus der Orgel- und Kammermusik zählt zu den Architekturdenkmälern von nationaler Bedeutung. Parks und Grünflächen In der Stadt gibt es über 20 Parks. Darunter der 1790 angelegte zentrale Kultur- und Erholungspark Schewtschenko, der sich auch über den Nordteil der Klosterinsel erstreckt, und den Studentenpalast, ein Süßwasseraquarium und einen Zoo beheimatet. Der Lasar-Hloba-Park bietet den Besuchern eine Kartbahn, ein Tropenhaus, eine Kindereisenbahn und wechselnde Aufführungen im Sommertheater. An der Böschung des „langen (Krasnopowstantschesker) Abhangs“ (rus. ) befindet sich der 1936 gegründete „Botanische Universitätsgarten der Nationaluniversität Dnipro“ , während des Zweiten Weltkriegs wurde der Park vollständig zerstört. Ein Teil des damaligen Parkes wurde in den 1964 eingeweihten „Juri-Gagarin-Park“ umgewandelt, ein anderer Teil bildet den heutigen Universitätscampus mit Studentenwohnheimen und der restliche Teil den seit 1963 unter Naturschutz befindlichen „Botanischen Universitätsgarten“. Zusammen mit dem „Juri-Gagarin-Park“ , befinden sich beide Parkanlagen im Stadtviertel Gagarin, des Stadtrajons Sobor und umgeben das Hauptgebäude der Dniproer Nationaluniversität. Ebenfalls im Stadtviertel Gagarin gelegen befindet sich der 1967 eröffnete „Wolodja-Dubinin-Kinderpark“ . Auf dem Gebiet des „Parks der Erinnerung und Versöhnung“ (bis 2015 „Kalinin-Park“) befand sich zum Ende des 18. Jahrhunderts nach dem Bau der Katerinoslawsker Walkstofffabrik noch der Tschetschelowsker Friedhof nach der gleichnamigen Ortschaft Tschetschelowka (rus. ). Auf dem Friedhofsgelände wurde die Alexander-Newski-Kirche erbaut, in der bis 1937 Gottesdienste stattfanden. Die Kirche ist 1941 abgebrannt und wurde nicht wieder aufgebaut. Im Verlauf des Zweiten Weltkriegs fanden hier zwei große Kriegsbestattungen statt, im nordöstlichen Teil wurden Soldaten der Roten Armee und im Ostteil Wehrmachtssoldaten beerdigt. Erst 1946 wurde der heutige Park eingeweiht. Bis 1927 befand sich an der Stelle des ehemaligen „Leninplatzes“ und seit 2015 „Heldenplatz“ genannten Parkanlage, der Gefängnishof und das Arbeitslager des städtischen Gefängnisses. Beide wurden nach der Oktoberrevolution 1917 abgerissen. Heute liegt der Park nur einen Straßenzug vom Lasar-Hloba-Park entfernt und umgibt das Gebäude der Dnipropetrowsker Oblastverwaltung. Der „Sewastopoler Park“ wurde 1955 zum 100-jährigen Gedenken an die Belagerung von Sewastopol eingeweiht. Auf der Hauptallee befindet sich das „Denkmal zu Ehren der Verteidiger von Sewastopol“ . 1893 wurde hier der ukrainische Poet, Ethnograf, Lexikograf, Folklorist und Journalist Iwan Manschura begraben. An Stelle des heutigen Parks 40-jährige Befreiung von Dnipropetrowsk (ukr. ) befand sich zwischen 1869 und 1965 ein Friedhof, auf dem sich zahlreiche Gräber von Adligen und Ehrenbürgern der Stadt wie auch von aus dem Ausland stammenden Verstorbenen befanden. Die dort befindlichen historischen Grabstätten waren mit denen des alten Lemberger Friedhofs vergleichbar. Weitere Parks und Grünflächen sind der „Bohdan-Chmelnyzkyj-Park“ , der „Metallurgen-Platz“ (ukr. ), der „Städtische Jugenderholungs und -freizeitpark Nowokodak“ (ehemals „Leninpark“), der „Waldpark der Völkerfreundschaft“ , der „Grünes Wäldchen“-Park (ukr. , ehemals „Park des Leninschen Komsomols“) um das Meteorstadion, der „Leninwald“ im Süden des Stadtrajons Nowokodak, der ehemalige „Woronzow-Park“ und heutige „Sagajdak-Park“ (ukr. ) sowie der „Kljujew-Park“ . Sport In der Stadt fanden insgesamt vier sowjetische (in den Jahren 1976, 1978, 1982 und 1985) und zwei ukrainische Badmintonmeisterschaften (in den Jahren 2010 und 2012) statt. Der Fußballverein Dnipro Dnipropetrowsk (ab 2016 FK Dnipro) war in der Zeit der Zugehörigkeit zur Sowjetunion zweimal Sowjetischer Fußballmeister, nämlich 1983 und 1988, und viermal wurde ein Spieler von Dnipro Dnipropetrowsk Ukrainischer Fußballer des Jahres, nämlich 1983, 1984, 2003 und 2010. In der UEFA Europa League 2014/15 erreichte der Verein das Finale, in dem man dem FC Sevilla unterlag. Wegen finanziellen Problemen musste der Verein aus der ersten ukrainischen Liga zwangsabsteigen und stellte in der Folge 2019 den Spielbetrieb ein. Der FK spielte in der multifunktionalen, im Jahr 2008 eröffneten und 31.003 Zuschauer fassenden Dnipro-Arena, welche eigentlich als Spielstätte für die Fußball-EM 2012 vorgesehen war – aufgrund der nicht erreichten Anzahl von 33.000 Sitzplätzen wurde jedoch das Metalist-Stadion in Charkiw vorgezogen. Vorher wurde im 1966 gebauten Meteorstadion im Sportkomplex Meteor gespielt, in dem später die Mannschaft von Dnipro-2 Dnipropetrowsk, dem ukrainischen Zweitligisten, Reservemannschaft des Dnipro Dnipropetrowsk, spielte und einige Heimspiele des Kamjansker Erstligisten Stal Dniprodserschynsk stattfinden. Dort war auch der aus dessen Jugendfußballschule hervorgegangene Zweitligist Dnipro-75 Dnipropetrowsk vor seiner Auflösung im März 2010 beheimatet. Als inoffizieller Nachfolger des FK Dnipro gilt der im Jahre 2017 neu gegründete SK Dnipro-1, der ebenfalls in der Dnipro-Arena spielt und durch den Milliardär Ihor Kolomojskyj unterstützt werden soll, der in der Vergangenheit bereits Präsident des FK Dnipro gewesen ist. Von den meisten Anhängern des FK Dnipro wird dieser Verein jedoch nicht als legitimer Nachfolger angesehen. Der Städtische Profibasketballverein ist der BK Dnipro Dnipropetrowsk. Er spielt sowohl in der ukrainischen Basketball-Superliga der Herren als auch in der höchsten Liga der Frauen, wobei die Frauenmannschaft zweimal die ukrainische Frauen-Meisterschaft gewann (2010 und 2008). Der Eishockeyclub HK Dnepr-Meteor spielt in der höchsten ukrainischen Eishockeyliga. In der Stadt gibt es seit 2009 auch den Rugbyverein RK Dnepr. Dnipro ist Sitz des nationalen Bandyverbandes der Ukraine. Wirtschaft Die in der Wirtschaftsregion Dnepr gelegene Stadt wird vor allem durch Industrie (Maschinenbau, Hochtechnologie und Hüttentechnik) und Finanzwirtschaft (Banken und Handel) sowie die Weltraum- und Raketenindustrie geprägt. Die für Dnipro zuständige Industrie- und Handelskammer ist die IHK Dnipropetrowsk. Industrie Dnipro liegt zwischen dem Steinkohle- und Industriegebiet des Donezbeckens (Donbass) und dem durch Eisenerzbergbau und die Stahlindustrie geprägten Krywbass. Deswegen hat sich dort eine Vielzahl von Unternehmen für beide Industriezweige angesiedelt. Zu den Unternehmen der Metallurgie gehört mit Interpipe, das Wiktor Pintschuk gehört, ein Hersteller von Röhren und Stahlprodukten, vor allem für die Transportindustrie. Zur Interpipe-Gruppe gehört unter anderem das Rohrwalzwerk Nyschnjodniprowskyj. Der zur Evraz-Gruppe gehörende Dnipropetrowsker Metallurgiebetrieb Petrowski ist einer der größten Einzelbetriebe der Ukraine und wurde mit dem Leninorden und zu seinem hundertjährigen Bestehen (1987) mit dem Orden der Oktoberrevolution ausgezeichnet. Der Betrieb gilt als einer der ältesten Metallurgiebetriebe der ehemaligen Sowjetunion. Zur Maschinenbauindustrie der Stadt gehört unter anderem Piwdenmasch (rus. transkribiert ), ein großer Hersteller von Raketen aber auch Omnibussen, Maschinen für die Landtechnik, Oberleitungsbussen, Straßenbahnen, Windkraftanlagen und Satelliten, der mehr als 13.000 Arbeitnehmer beschäftigt. Weitere Unternehmen sind Dniproschina (ukr. , ehemals Dnipropetrowsker Reifenwerk), ein Hersteller von Reifen und Gummiprodukten und die Elektrolokomotivenfabrik Dnipro (ukr. ), in der auch viele sowjetische Triebfahrzeuge gebaut wurden. In der Stadt ist auch KB Juschnoje beheimatet, das ehemalige unternehmenseigene Konstruktionsbüro von Piwdenmasch. Die Raketen der Typen R-16, der ersten Interkontinentalrakete der Sowjetunion, und Dnepr sowie viele ballistische Raketen wurden von KB Juschnoje entworfen und von Piwdenmasch hergestellt. Heute sind KB Juschnoje und weitere in Dnipro ansässige Unternehmen an internationalen Projekten wie den US-amerikanischen Raketen Antares und Alpha sowie der italienischen Vega beteiligt. Dienstleistungs- und Finanzsektor Im Stadtzentrum befindet sich das Most-City Center mit einem 18.000 m² großen Bürokomplex. Die Stadt ist Hauptsitz und Drehkreuz der Fluggesellschaft Dniproavia. Die Stadt ist das finanzielle Zentrum des Landes. Dort haben sich über 40 der größten öffentlichen und privaten Banken der Ukraine angesiedelt. Es gibt Filialen von etwa 97 Banken. Banken mit Sitz in Dnipro sind unter anderem (in Klammern die kyrillische Schreibweise): die PrivatBank, die AktaBank (АктаБанк), die A-Bank (А-Банк), die Zemelni Kapital (КБ Земельный Капитал), die Neue Bank (Банк Новый), die WostokBank (Банк Восток), die Bank Credit Dnepr (Банк Кредит Дніпро), die ClassicBank (Класикбанк), die InterCreditBank (IнтерКредитБанк), und die RadaBank (Радабанк). Dnipropetrowsker Klan Der Dnipropetrowsker Klan ist ein politisch-wirtschaftliches Klientelpolitiknetzwerk der Dnipropetrowsker Oligarchen und Spitzenfunktionäre. Der „Klan“ geht zurück auf den Parteichef der KPdSU, Staatschef der Sowjetunion und vierfachen Held der Sowjetunion Leonid Iljitsch Breschnew und Leonid Kutschma, der von Oktober 1992 bis September 1993 Ministerpräsident und von Juli 1994 bis Januar 2005 Präsident der Ukraine und vormaliger Generaldirektor von Juschmasch war. Der Dnipropetrowsker Klan besteht aus den fünf Gruppen Privat, Pintschuk, Derkatsch, Kutschma und Tymoschenko. Marktplätze Die Stadt besitzt viele kleinere und größere Marktplätze zur Nahversorgung der Einwohner, der bekannteste ist die dabei die Osjorka, welche auch als zentraler Marktplatz der Stadt fungiert. Weitere Märkte sind der Dreifaltigkeitsmarkt (), der Nagorny-Markt (), die Nagorka (), der Marktplatz „Kodak“ () mit gleichnamigem Einkaufszentrum und der Kawerinski-Markt (). Messen und Kongresse In der Stadt finden regelmäßig nationale und internationale Messen statt. Einige davon sind Energoprom (rus. ) (Branchen: Elektrik, Elektrotechnik, Energie), LitEx (rus. ) (Branchen: Gießerei, Metallindustrie), Mashprom (rus. ) (Branchen: Maschinenbau, Werkzeugmaschinen), Agroprom (rus. ) (Branche: Landwirtschaft), und die Mirror of fashion (rus. ) (Branchen: Kosmetik, Parfümerie, Friseur). Verkehr Die Stadt ist ein Verkehrsknotenpunkt der Ukraine. Das Kfz-Kennzeichen der Stadt, wie auch der gesamten Oblast ist seit 2004 AE. Öffentlicher Verkehr Den Großteil des innerstädtischen Verkehrs bedienen Marschrutkas, die auf ungefähr 135 Linien verkehren und von denen etwa 532 mit GPS ausgestattet sind (Stand: 24. August 2014). Dies entspricht jedoch nur etwa einem Drittel bis der Hälfte aller Marschrutkas in Dnipro. Die Fahrten kosten in einer Richtung dreieinhalb bis vier Hrywnja, Monats- oder Jahreskarten gibt es nicht. Beim Umstieg muss erneut gezahlt werden. Die Stadt verfügt über ein 1897 eröffnetes und fortwährend ausgebautes, renoviertes und modernisiertes Straßenbahnnetz. Derzeit werden 19 Linien betrieben. Seit 1995 hat die Stadt auch eine U-Bahn mit sechs Stationen, drei zusätzliche sind in Bau, zwei weitere in Planung. Die Metro soll durch den japanischen Baukonzern Sumitomo Shōji ausgebaut werden. Straßenverkehr In der Stadt kreuzt die Europastraße – sie verbindet als eine der wichtigsten Europastraßen Osteuropa mit Mittel- und Westeuropa – die , die Murmansk und Sankt Petersburg über Moskau mit der Krim verbindet. Außerdem verläuft die nationale Fernstraße durch das Stadtgebiet. Brücken Brücken haben in der Stadt durch ihre Lage beidseitig des Dnepr einen besonderen Stellenwert. Die (neue) Zentrale Brücke (ukr. ) oder Brücke № 2 ist eine 1478 m lange und 21 m breite Straßenbrücke, die das Stadtzentrum mit den linksufrigen Stadtteilen verbindet. Die Eröffnung war am 5. November 1966. Die Brücke wurde anstelle einer alten sowjetischen Holzbrücke gebaut, die von der Roten Armee 1944 errichtet worden war. Sie galt lange Zeit als die längste Brücke der Ukraine. Die (Alte) Amurbrücke (ukr. ) wurde im Jahre 1884 fertiggestellt. Sie ist eine ursprünglich für den Eisenbahn- und den Straßenverkehr konzipierte Brücke, auf der seit 1935 auch eine Straßenbahnlinie verkehrt. Die Länge beträgt 1395 m, mit den Zu- und Abfahrten 2397 m. Sie ist 15,5 m breit und verbindet die Region um den (Haupt-)Bahnhof mit den linksufrigen Stadtteilen. Der Bau der Merefa-Cherson-Brücke, benannt nach der Eisenbahnstrecke zwischen den beiden ukrainischen Städten Merefa und Cherson, wurde schon um 1914 begonnen, die Fertigstellung erfolgte aber erst im Jahre 1932. Diese Brücke gilt als eine der einzigartigsten Bauten in der Ukraine. Die Kaidakbrücke (ukr. ) wurde am 10. November 1982 eröffnet. Sie ist eine in beiden Richtungen dreispurige Straßenbrücke mit einer Länge von 1732 m. Über die Brücke verläuft eine Straße, die nach Charkiw und Donezk führt. Seit dem 17. Dezember 1996 verkehrt auf der Brückenmitte eine Linie der Straßenbahn. Die 1248 m lange und 22 m breite Südliche Brücke (ukr. , rus. ) wurde in Etappen von 1982 bis 1993 und von 1998 bis 2000 gebaut. Die Eröffnung war im Dezember 2000. Die rechtsufrige Seite liegt niedriger als die linksufrige. Sie verbindet die Plattenbaugebiete Pridniprowsk und Peremoha. Eisenbahn Die Stadt ist ein Eisenbahnknotenpunkt und Sitz des regionalen Eisenbahnverbundes Prydniprowska Salisnyzja, der zur ukrainischen Eisenbahn gehört. Die Prydniprowska Salisnyzja bedient Streckennetze in den Oblasten Dnipropetrowsk und Saporischschja, der Autonomen Republik Krim sowie Teile fünf weiterer umliegender Oblaste (Oblast Cherson, Oblast Mykolajiw, Oblast Kirowohrad, Oblast Charkiw und Oblast Donezk). Das Streckennetz mit 244 Eisenbahnstationen hat eine Gesamtlänge von 3250 km, von denen etwa 58 Prozent elektrifiziert sind. Hafen Die Stadt besitzt den größten Binnenhafen der Ukraine. Der Hafen gehört zur Betreibergesellschaft Ukrrichflot und dient dem Güterfrachtverkehr. Er ist 393 km von der Dneprmündung entfernt und hat eine Fläche von 20,8 Hektar. Flughafen Über den Flughafen Dnipro besteht eine Flugverbindung zum größten ukrainischen Drehkreuz, dem Flughafen Kiew-Boryspil, und zu wichtigen nationalen Zielflughäfen. Des Weiteren bestehen Flugverbindungen zu den internationalen Zielen Wien, Moskau, Tel Aviv, Istanbul, Jerewan sowie seit dem 18. September 2013 auch Dubai. Am Flughafen werden jährlich etwa 450.000 Passagiere abgefertigt. Im 15 km nördlich gelegenen Pidhorodne befindet sich außerdem der ehemalige Flughafen der Stadt Dnipro (ukr. , rus. ). Ergänzendes Der Stadt wurde im Jahre 1976 der Leninorden verliehen. Die HIV/AIDS-Rate in der Stadt liegt bei 408,8 pro 100.000 Einwohner. Literatur Sergei I. Zhuk: Rock and Roll in the Rocket City. Washington, DC u. a. 2010, ISBN 978-1-4214-2314-2. Weblinks Website der Stadt (deutsch, französisch, spanisch und englisch, ausführlicher auf Russisch und ukrainisch) Offizielle Touristik- und Werbeseite der Stadt Dnipro (englisch, auch russisch und ukrainisch) Geschichte der Stadt (englisch) Bilder der Stadt Webseite des Stadtrates von Dnipro Offizielle Seite der Ukrainischen Rada zur Stadt Dnipro (ukrainisch) Einzelnachweise Ort in der Oblast Dnipropetrowsk Ort am Dnepr Hochschul- oder Universitätsstadt in der Ukraine Hauptstadt einer Oblast in der Ukraine
Q48256
208.143318
8575
https://de.wikipedia.org/wiki/Taufe
Taufe
Die Taufe ist ein christlicher Ritus, der seit der Zeit des Neuen Testaments besteht. Die Auffassungen über Voraussetzung, Durchführung und Wirkung der Taufe sind in den jeweiligen Konfessionen verschieden; sie kann die Eingliederung in die Gemeinschaft der Christen oder ein öffentliches Glaubensbekenntnis bedeuten. Vollzogen wird die Taufe durch Übergießen des Täuflings mit Wasser (Infusionstaufe) oder das Untertauchen im Wasser (Immersionstaufe, als Ganzkörpertaufe). Dabei wird eine Taufformel gesprochen. Taufverständnis Manche Kirchen verstehen die Taufe als einen Ritus, der die Reinigung von religiös definierter Schuld (Sünde bzw. Erbsünde) beinhaltet und in der Folge die persönliche Erfahrung einer Gottesnähe ermöglicht. Die symbolische Taufhandlung gilt als Teilhabe an der Sündenvergebung durch den Tod Christi am Kreuz und wird als die „Eingliederung in den gestorbenen und auferstandenen Christus“ und damit als Eingliederung in die kirchliche Gemeinschaft begriffen. Eine weitere Analogie ist die „Neugeburt zur Gotteskindschaft“, unter anderem als Voraussetzung zur Jüngerschaft bzw. zur Nachfolge (vor allem im evangelikalen Bereich). Andere sehen in ihr eher eine symbolische Handlung, die die genannten Vorgänge nicht bewirkt, sondern sie lediglich bezeichnet. Auch in der Taufpraxis unterscheiden sich die christlichen Kirchengemeinschaften. Während in vielen Kirchen die Kindertaufe die Regel ist, wird in anderen Kirchen und kirchlichen Gemeinschaften ausschließlich die Gläubigentaufe praktiziert. Auch in formaler Hinsicht unterscheidet sich die Taufpraxis der christlichen Kirchen. Während die einen den Täufling mit Wasser übergießen, wird bei den anderen der zu Taufende vollständig in Wasser eingetaucht. Die verwendete Taufformel weist in der Praxis der verschiedenen Kirchen ebenfalls Unterschiede auf. Fast alle taufen nach dem Vorbild des biblischen Taufauftrags Jesu „auf den“ (oder „in den“ bzw. „im“) „Namen des Vaters und des Sohnes und des Heiligen Geistes“, einige wenige kirchliche Gemeinschaften taufen hingegen nach dem Vorbild der Apostelgeschichte lediglich „auf den Namen Jesus“ (; ; ). Das genealogische Zeichen für die Taufe ist die Tilde (~). Wortherkunft Das griechische Wort für „taufen“ im Neuen Testament ist baptízein (βαπτίζειν) und bedeutet „ein-“ oder „untertauchen“. Es ist in diesem Sinne in der griechischen Literatur seit Platon (4. Jh. v. Chr.) belegt. In der Septuaginta, der griechischen Übersetzung des Alten Testaments, kommt der Ausdruck baptízein (βαπτίζειν) nur viermal vor. Nur in bezieht es sich auf das Untertauchen eines Menschen zur rituellen Reinigung. Flavius Josephus verwendet den Begriff baptismós (βαπτισμός) – Taufe – im Zusammenhang seines Berichtes über Johannes den Täufer. In der ersten germanischen Bibelübersetzung, der gotischen Bibel von Wulfila aus dem 4. Jahrhundert, wird baptizein mit daupjan übersetzt – das ebenso wie das griechische Wort „eintauchen“ bedeutet – und durch die spezifische christliche Bedeutung „durch Untertauchen zum Christen machen“. Wie das gotische Wort gehen das altnordische deypa, das altenglische dyppan und das althochdeutsche toufen alle etymologisch auf das Wort (in neuhochdeutscher Wiedergabe) „tief“ zurück, mit dem auch der Wortstamm „tauchen“ zusammenhängt. Das Wort „Taufe“ wurde stark von der christlichen Tradition geprägt und wird deshalb meist mit der christlichen Taufe gleichgesetzt. Da in anderen Religionen ebenfalls rituelle Handlungen mit Wasser erfolgen, ist zu beachten, „dass (das Wort Taufe) nur mit größter Vorsicht auf außerchristliche Reinigungen oder Waschungen mit Wasser angewandt werden kann“. Altes Testament und Judentum Altes Testament Der aussätzige Naaman tauchte auf Befehl des Propheten Elischa siebenmal im Jordan unter, um seine Krankheit zu heilen und die Reinheit zurückzugewinnen . (Auf die Heilung des Naaman nahm Jesus in der Darstellung des Lukas Bezug: .) Auch der Psalmist erwähnt sowohl eine innere Reinigung („Entsündigung“) mit Ysop als auch eine Waschung zur körperlichen Reinheit in Psalm ; in diesem Vers werden Waschung und die Vergebung der Sünde miteinander in Verbindung gebracht. In Hesekiel wird das Besprengen beschrieben, welches die Unreinheiten der Täuflinge beseitigen und sie vom Götzendienst abhalten sollte. Judentum Die Gemeinschaft von Qumran war nicht die einzige jüdische Glaubensgemeinschaft, die im Vergleich zur christlichen Taufe Gemeinsamkeiten in der Umkehrforderung, äußerer und innerer Reinigung und Buße zeigte. Auch die Essener kannten ähnliche Riten. Die rituelle Waschung wurde im Namen Gottes vollzogen und regelmäßig, vermutlich sogar täglich, ausgeführt. Taufriten der jüdischen Gemeinschaften wurden von jedem für sich allein und ohne öffentliches Bekenntnis vorgenommen. Jedoch galt wohl die erste dieser Waschungen als offizielle Aufnahme eines Novizen. Im Talmud ist der regelmäßige Besuch des Mikwe-Bads zur Herstellung ritueller Reinheit vorgeschrieben. Auch ist ab der zweiten Hälfte des 1. nachchristlichen Jahrhunderts eine Proselytentaufe bezeugt. Die Unterschiede der christlichen Taufe sind sowohl in der nur einmal vorgenommenen Taufe, als auch im öffentlichen Bekenntnis zu Jesus zu sehen. Zudem fehlt eine Person, die die Taufe durchführt. Dass Flavius Josephus die Vokabel baptismós nur für die Johannestaufe, nicht aber für die rituellen Waschungen der von ihm beschriebenen Sekten anwendet, zeigt, dass auch zur damaligen Zeit ein deutlicher Unterschied gesehen wurde. Aufnahme im Neuen Testament Die Taufe wird im Neuen Testament als etwas Bekanntes vorausgesetzt. Sie wird verstanden als das Zeichen des Neuen Bundes, das in vielfältiger Weise seine „Vorzeichen“ im Alten Bund hat; dazu gehört das Schweben des Geistes Gottes über dem Wasser der Urflut im Anfang ; die Sintflut (als Aufbrechen der „Quellen der gewaltigen Urflut“: ) und Rettung in der Arche Noah (Gen 6–8; vgl. ; ); der Exodus oder Durchzug durch das Rote Meer als Befreiung aus Ägypten (Ex 13,17 – 14,31); das Überschreiten des Jordan mit dem Einzug des Volkes Gottes in das gelobte Land, geführt von Josua , sowie das Bundeszeichen der Beschneidung . Im Neuen Testament Die sogenannte Johannestaufe Die erste Taufe, die im Neuen Testament erwähnt wird, ist die Taufe durch Johannes. Er erhielt deshalb den Beinamen „der Täufer“. Johannes vollzog die Taufe im Wasser des Jordan –, sie war mit einem Sündenbekenntnis und mit der Umkehr (Buße) verbunden und geschah „als Zeichen der Umkehr“ (, , ); alles zusammen geschah „zur Vergebung der Sünden“ . Jesus ließ sich nach den übereinstimmenden Berichten der Evangelien von Johannes taufen. Auch einige der späteren Jünger und Apostel wurden von Johannes getauft und auf Jesus, „das Lamm Gottes, das die Sünde der Welt trägt“, aufmerksam gemacht (, ). In der Folgezeit tauften nach sowohl Jesu Jünger als auch Johannes. Jesus selber hat zwar die Jünger beauftragt, alle Menschen zu taufen; er selber hat nicht getauft. In , wo Paulus in Ephesus auf einige nicht näher bezeichnete Jünger trifft und ihnen in der Taufe den Heiligen Geist spendet, wird deutlich, worin sich Johannestaufe und christliche Taufe unterscheiden: Nachdem die Jünger dort von ihrer Johannestaufe berichtet haben, erklärt Paulus ihnen, dass Johannes mit einer Taufe der Umkehr getauft und dazu aufgerufen habe, „dass das Volk an den glauben solle, der nach ihm kommen werde“, nämlich an Jesus Christus. Daraufhin ließen sich die Jünger des Johannes noch einmal taufen. Unterscheidende Kennzeichen der christlichen Taufe sind dort die Gabe des Heiligen Geistes und die Taufe auf den Namen Jesu Christi. Taufe in der Urgemeinde Das Matthäusevangelium endet mit dem sogenannten Tauf- oder Missionsbefehl Christi: Die Taufformel „auf den Namen des Vaters und des Sohnes und des Heiligen Geistes“ kommt nur in diesem im Evangelium enthaltenen „Taufbefehl“, nicht aber in den Tauferzählungen der Apostelgeschichte und der Briefe des Paulus, vor. Dort, wo die Taufhandlung selbst näher beschrieben wird, lautet die Taufformel: „auf den Namen Jesu Christi“ (Apostelgeschichte ; ; ; ; und ). In seiner Pfingstpredigt ruft der Apostel Petrus öffentlich zur Taufe auf. Er verheißt denen, die umkehren und sich zur Vergebung der Sünden taufen lassen, dass sie den Heiligen Geist geschenkt bekommen: Philippus predigte von Jesus Christus und die gläubig Gewordenen ließen sich taufen . In wird der Kämmerer der äthiopischen Königin Kandake, der sog. Eunuch der Kandake, von Philippus nach seinem biblischen Verständnis gefragt. Der Kämmerer antwortet mit: „Wie könnte ich es, wenn mich niemand anleitet?“. Nachdem ihm das Evangelium von Jesus gepredigt wurde, wird er durch Philippus getauft. Paulus erklärt in die Taufe als „Begrabenwerden“ und „Neuwerdung des Lebens“. In seiner Auffassung ist sie ein Nachvollzug des Begräbnisses und der Auferstehung Jesu. Die Taufe ist eng mit der Gabe des Heiligen Geistes verbunden. Johannes der Täufer wies auf Jesus Christus hin, der mit heiligem Geist und Feuer taufe . Petrus verkündigte den Geistempfang als Folge von Umkehr und Taufe . Als der heilige Geist auf den ungetauften Hauptmann Kornelius und andere Nichtjuden, die sich mit ihm versammelt hatten, fiel, überzeugte dies die Judenchristen, dass auch Nichtjuden getauft werden dürfen, weil der heilige Geist auch auf sie ausgegossen wurde . Wesen der Taufe In der Taufe wird der Täufling gemäß der Lehre des Apostels Paulus in Christi Tod getauft und mit Christus „begraben in den Tod“. Der Vollzug der Taufe bezeichnet damit die sicht- und erlebbare „Schwelle“ zwischen dem alten Sein des Menschen in der Sünde und dem neuen Sein seines Lebens in Christus. Ihr Wasser „tötet“ und „schenkt Leben“ zugleich. Mit ihr erhält der Getaufte Anteil an Christi Auferstehung . Gleichzeitig wird er Teil des universalen Leibes Christi durch die Taufe im heiligen Geist . Die Taufe ist Ausdruck des göttlichen Versöhnungshandelns durch Kreuz und Auferstehung Christi. Wie dieses in Christus „ein für allemal“ zum Heil der Welt geschehen ist, so geschieht auch die Taufe zum Heil des Täuflings und bedarf keiner Wiederholung. Die Bibel erzählt nur in eine nochmalige Taufe, weil die erste Taufe dort keine christliche gewesen ist, sondern die Taufe des Johannes. Unterscheidende Kennzeichen der „christlichen“ Taufe sind dort das Wirken des Heiligen Geistes in ihr und die Taufe auf den Namen Jesu Christi. Der Glaube ist dabei Voraussetzung zum Erlangen des Heils; die Taufe ist eine Folge des Glaubens, sie kann dem Glauben aber auch vorausgehen. Als Geschehen im Heiligen Geist macht sie ihn der Rechtfertigung teilhaftig und bezweckt zugleich den Wandel in einem neuen Leben, das von der Knechtschaft in die Freiheit der Kinder Gottes und von der Sünde in den Dienst der Gerechtigkeit und in die Heiligung führt. Petrus erklärt, dass in der Taufe nicht der Schmutz vom Leibe abgewaschen wird, sondern dass die Taufe die Bitte zu Gott um ein reines Gewissen ist, indem Jesus Christus von den Toten auferstanden ist . Geschichtliche Entwicklung Alte Kirche Wer sich in den ersten Jahrzehnten des Christentums taufen ließ, tat dies wohl im Glauben daran, noch zu Lebzeiten die Wiederkunft Jesu Christi zu erleben. In der Taufe wurde der Täufling aus dem heidnischen Kontext herausgenommen und dem Machtbereich Jesu Christi unterstellt – was mit der Formulierung Taufe εις Χριστόν Ιησοῦν (eis Christón Iēsoûn, wörtl: „in Christus Jesus hinein“) gemeint ist. Er empfing den Heiligen Geist „als Siegel“ und wurde in den Leib Christi eingegliedert . Oft ließ man sich mit seinem ganzen Haus taufen. Dabei ist anzunehmen, dass alle Bewohner des Hauses (einschließlich Ehefrauen, Kinder und Sklaven) getauft wurden. Immer verbunden mit der Taufe war das Glaubensbekenntnis, dessen älteste Formulierung κύριος Ιἠσοῦς – Kyrios Jesus – „Jesus ist der Herr“ lautet . Bei den apostolischen Vätern verschob sich der Charakter der Taufe zu einem „gesetzlich verstandenen Eintrittsritus“ in die Kirche. Die Wassertaufe wurde nun als Abwaschung der bis dahin begangenen Sünden verstanden. Für die nach der Taufe begangenen Sünden mussten andere Wege gefunden werden: Gute Werke tun, Beichten, Verzichten, Tauf-Aufschub bis zum Lebensende, „Blut-Taufe“ (durch einen Tod als Märtyrer), passives Leiden nach dem Tod im Fegefeuer. Während die biblischen Berichte die Taufe auf den Namen Jesu Christi kennen, folgte die frühe Kirche dem Taufbefehl und taufte „auf den Namen des Vaters und des Sohnes und des Heiligen Geistes“, so schon in der ältesten überlieferten Kirchenordnung, der Didache. Ab dem ausgehenden 2. Jahrhundert wurden die Täuflinge in Rom und Nordafrika vor allem in der Feier der Osternacht getauft, um das Sterben des alten Menschen und das Auferstehen des neuen mit Jesus Christus zu verdeutlichen. Im Urchristentum geschah die Taufe vermutlich durch vollständiges Untertauchen des Täuflings in kaltem, fließenden Wasser. Bis etwa zum 12. Jahrhundert war das Untertauchen durchaus eine übliche Taufform auch in der römisch-katholischen Kirche. Wo dies nicht möglich war, konnte jedoch bereits im ersten oder zweiten Jahrhundert durch Übergießen mit Wasser getauft werden. Erste Erwähnungen der Kindertaufe finden sich um 215 in der Hippolytischen Kirchenordnung (Baptismus infantium). Offensichtlich war sie allgemein akzeptiert. Nur vereinzelt findet sich Kritik an der Kindertaufe. Tertullian argumentierte gegen diese Praxis: Bis zum 5. Jahrhundert wurde die Kindertaufe schließlich zur vorherrschenden Praxis in der ganzen Kirche. Im 3. Jahrhundert vertraten Cyprianus und Tertullian die Ansicht, durch die Taufe werde die durch die Erbsünde zerstörte Gottebenbildlichkeit wiederhergestellt. Zwar reichte theoretisch der Glaube dazu aus, wie bei den Aposteln, von denen die Bibel nicht berichtet, dass Jesus sie getauft hat, da jedoch Jesus den Befehl zur Taufe gegeben habe, bestehe für die Gläubigen ein Zwang zur Taufe. Dieselben Theologen stritten im Ketzertaufstreit darum, ob auch eine Taufe anzuerkennen sei, die nicht in einer mit dem katholischen Bischof verbundenen Gemeinde gespendet sei. Man einigte sich darauf, dass die trinitarische Taufformel das entscheidende Element darstelle. Der Geistempfang, der ursprünglich mit der Taufe verbunden war, wurde zur selben Zeit – wohl als Reaktion auf eine gnostische Lehre von mehreren der jeweiligen Stufe der Erkenntnis entsprechenden Taufen – aus der Taufhandlung herausgenommen und durch eigene Handlungen, die Salbung mit Chrisam und die Handauflegung, ergänzt. Unter dem Einfluss der gleichzeitigen Mysterienkulte wurde der Taufritus um ausdeutende Riten (weißes Taufkleid, Absage an den Teufel vor der Taufe) erweitert und als mystérion (μυστήριον), lat. sacramentum verstanden. Dazu gehörte auch die vor der Taufe geübte Arkandisziplin, die es den Katechumenen, den Ungetauften, verbot, die Eucharistiefeier mitzuerleben. Die Bezeichnung der Taufe als „Erleuchtung“ (griech. phôtismós, φωτισμός) in der Alten Kirche stammt aus dem 2. Korintherbrief . Der Begriff verdeutlicht, dass der Täufling aus der Finsternis des Unglaubens in das Licht des Glaubens und Erkennens eintritt. Justin der Märtyrer schrieb hierzu Mitte des 2. Jahrhunderts in seiner Ersten Apologie: „Es heißt aber dieses Bad Erleuchtung, weil diejenigen, die das an sich erfahren, im Geiste erleuchtet werden.“ Aurelius Augustinus sah in der Taufe das Handeln Jesu als „sichtbares Wort“ und „unsichtbare Gnade“, die in der „sichtbaren Taufhandlung“ die „Heilwirkung“ vollbringen. Die sakramentale Handlung prägt dem Täufling den „Charakter“ des neuen Menschen ein, wie ein Stempel der Münze. Augustinus formulierte die Lehre von der Taufe „als Heilmittel gegen die Erbsünde“ und begründete die Verpflichtung zur Kindstaufe innerhalb der römischen Kirche. Mittelalter Die Scholastik wandte die aristotelische Formel von Materie (Taufwasser) und Form (Taufformel) auf die Lehre des Augustinus an. Thomas von Aquin beschrieb Gott als „Prinzipalursache“ und das Taufwasser als „Instrumentalursache“ der Gnadenwirkung zur Tilgung der Erbsünde. Als dritter Bestandteil einer gültigen Taufe ist die Absicht (intentio) des Spenders, zu taufen, erforderlich. Diese Lehre wurde 1439 in der Bulle Exsultate Deo verkündet und ist in der katholischen Kirche bis heute gültig. Folglich verbreitete sich im Mittelalter das Übergießen anstelle des Untertauchens. Schon in der frühmittelalterlichen fränkischen Kirche und sicher auch in Teilen Italiens war das Übergießen allerdings bereits früher gängige Praxis, wie die erhaltenen Bilddarstellungen seit dem 4. Jahrhundert und die archäologischen Befunde zeigen. In der orthodoxen Kirche bleibt es bis heute bei dem Verständnis der Taufe als des ersten Mysteriums, das den Empfang der folgenden Mysterien ermöglicht. Kyrill von Jerusalem beschreibt in seinen Katechesen an die Taufanwärter, wie der Täufling auf geheimnisvolle Weise Christi Leben und Sterben nachvollzieht. So symbolisiert das dreimalige Untertauchen die drei Tage Christi im Grab. Reformation Martin Luther knüpfte wieder bei Augustinus an und sah in der Taufe die sichtbar gewordene Zusage Gottes, den Menschen um Christi willen die Sünde zu vergeben. Die Taufe ist ein Bund mit Gott. Der Täufling verspricht Gott, täglich der Sünde absterben zu wollen. Zunächst war das Taufwasser für Luther ein Symbol der Heilsgewissheit nur für den Täufling, erst im Kampf gegen die sogenannten Schwärmer betonte auch er Heilsamkeit des Taufwassers. Viel wichtiger ist ihm, dass die Taufe kein einmaliges Geschehen ist, sondern täglicher geistlicher Wiederholung bedarf: Auch der Zürcher Reformator Ulrich Zwingli zählt die Taufe mit dem Abendmahl zu den Sakramenten. Sakramente sind für ihn allerdings nur Zeichen, die auf eine dahinter stehende Wirklichkeit hinweisen. Diese Wirklichkeit ist wichtiger als das Zeichen. Die Taufe bewirkt also selber nicht beispielsweise Abwaschung der Sünden, weist aber äußerlich auf dieses innere, geistgewirkte Heilsgeschehen hin. Damit positioniert sich Zwingli gegen die bisherige Kirchenlehre und gegen Luther (Taufe als Gnadenmittel). Gegen die Täufer, die sich auf ihn berufen, positioniert sich Zwingli zweifach: Die Taufe ist nach dem Neuen Testament Bundeszeichen, durch das gezeigt wird, dass der Getaufte Gott gehört. In Analogie zum alttestamentlich-jüdischen Bundeszeichen der Beschneidung haben die Eltern des neuen Gottesvolkes (die Kirche) die Pflicht, ihr Kind taufen zu lassen, denn als Kind christlicher Eltern gehört es zu Gott. Wie im Alten Testament müssen die Eltern dann auch ihr Kind entsprechend erziehen. Der Bundesschluss als Ausdruck von Gottes Gnade laufe stets dem Glauben voraus, so dass die Täufer die von Gott gesetzte Reihenfolge „Bundesschluss – Erwählung – Zugehörigkeit zum Gottesvolk – Glaube“ unzulässig umdrehen würden. Die Betonung des Bundesgedankens in der Tauflehre, der Altes Testament und Neues Testament verknüpft, bestimmt bis heute Verständnis und Praxis der Taufe in reformierten Kirchen. Johannes Calvin führt den Bundesgedanken Zwinglis weiter. Er nennt im Genfer Katechismus von 1542 die Taufe ein „äußeres Zeichen des göttlichen Wohlwollens gegen uns“ und ein „Unterpfand“ der Gnade Gottes. Er hält sie für nicht heilsnotwendig. Der Heidelberger Katechismus definiert „Wiedergeburt aus Wasser und Geist“ damit, Die Tauflehre der Täufer ist eine Weiterentwicklung von bestimmten Aspekten der Lehre Zwinglis. Auch für sie ist die Taufe ein bloßes Symbol des Bundes, den Gott mit dem Menschen und der Mensch mit Gott schließt. Nach ihrem Verständnis bietet Gott in dem gekreuzigten und auferstandenen Herrn allen Menschen den „Neuen Bund“ („das neue Testament“) an. In der Predigt des Evangeliums wird dieses Angebot den Menschen unterbreitet. Die Taufe ist nach diesem Verständnis das von Jesus Christus eingesetzte äußere Zeichen, durch das der Mensch in Gottes Bundesschluss einwilligt. Anders als in der reformierten Tradition wird die Taufe jedoch ausschließlich als Bekenntnistaufe nach einer bewussten Entscheidung für den Glauben praktiziert. Die Taufe wird in der täuferisch-mennonitischen Tradition auch nicht als Sakrament aufgefasst. Andere Bewegungen, wie die von ihren Gegnern „Schwärmer“ genannten, lehnten ähnlich den mittelalterlichen Katharern die Wassertaufe ganz ab. Bedeutsamer war ihnen die sogenannte Geistestaufe. Die katholische Reaktion auf die evangelischen Tauflehren ist die Neuformulierung der scholastischen Lehre auf dem Konzil von Trient. Dort wurde erstmals beschlossen, die Kindertaufe zur Verpflichtung nach kirchlichem Verständnis zu machen. Sie sollte demnach die Aufnahme in die Religionsgemeinschaft symbolisch darstellen, nach der die Kinder allmählich durch die christliche Lehre „wissend“ herangebildet werden sollten. Neuzeit In der Aufklärungszeit ging man dazu über, nicht mehr den Täuflingen, sondern deren Eltern die Tauffrage zu stellen. Von rationalistischen Theologen wurde die Taufe als „Weihe zur wahren Religion“ verstanden. Freikirchen Einige Freikirchen praktizieren die Taufe nicht. Während zum Beispiel die Quäker sie als zu vernachlässigende Äußerlichkeit ansehen, verzichtet die Heilsarmee auf den Vollzug von Taufen aufgrund ihres Selbstverständnisses als Erweckungsbewegung. Wer unter ihren Freunden und Mitgliedern das Bedürfnis hat, sich taufen zu lassen, wird mit diesem Begehren an befreundete Kirchen bzw. Freikirchen verwiesen. Pfingstbewegung Die Pfingstbewegung lehrt einen mehrstufigen Heilsweg, bei dem auf die Bekehrung die Wassertaufe folgt, die ihrerseits von der Geistestaufe ergänzt werden muss. Religionsphilosophie Der lutherische Religionsphilosoph Carl Heinz Ratschow leitete die Taufe von Wasserritualen der Religionsgeschichte ab und vollzog einen weiteren Deutungsrahmen, der überhaupt erst verständlich mache, aus welchem Grund das Element Wasser eine religiöse Bedeutung habe. Gegenwart Die Taufe der Gegenwart basiert in den verschiedenen christlichen Konfessionen auf derselben Grundlage. Im theologischen Verständnis der Taufe sind sie jedoch nicht einig. Dies führte unter anderem zu verschiedenen Ausführungsformen, Vorbedingungen und Annahmen der Folgen der Taufe. „Kindertaufe“ – „Gläubigentaufe“ Es macht in den christlichen Gemeinschaften einen Unterschied, ob der Täufling seinen Glauben bei der Taufe selbst ausdrücken kann oder nicht. Deswegen bestehen zwei Formen der Taufe, wobei seit der Reformation die Kindertaufe von einigen abgelehnt wird. Auch die Bezeichnungen selbst sind zwischen den zwei Seiten umstritten. Kindertaufe Der größte Teil des Christentums praktiziert in der Regel die Kindertaufe. Hierbei bekennen Eltern bzw. Taufpaten – entweder als Stellvertreter des Täuflings oder im eigenen Namen – den Glauben an Jesus Christus und versprechen eine christliche Erziehung des Kindes. In protestantischen Kirchen sollen die als Kinder Getauften ihre Taufe in der Konfirmation selbst bestätigen, indem sie ein Bekenntnis zu Jesus Christus ablegen. Für die römisch-katholische Kirche setzt jede Taufe den christlichen Glauben voraus. Kleine Kinder werden im Glauben der Kirche getauft, wenn ihre Erziehung im christlichen Glauben als gewährleistet anzunehmen ist. Eine Frage nach dem Glauben dieser Kinder oder ein stellvertretendes Glaubensbekenntnis erfolgen im heutigen Taufgottesdienst nicht mehr; vielmehr werden die Eltern nach ihrem eigenen Glauben befragt, und der „Glaube der Kirche“ wird von der versammelten Gemeinde im Apostolischen Glaubensbekenntnis bekannt. Kinder im Schulalter können wie die Erwachsenen die Taufe nur dann empfangen, wenn sie vor dieser ihren eigenen Glauben öffentlich bekannt haben. Beim sonntäglichen Taufgedächtnis in der Heiligen Messe und der jährlichen Erneuerung des Taufversprechens in der Feier der Osternacht gedenken die Gläubigen ihrer Taufe, ebenso beim Nehmen des Weihwassers und dem Bekreuzigen des Einzelnen beim Eintreten in eine Kirche. Die Erneuerung des Taufversprechens geht seit dem Zweiten Vatikanischen Konzil auch der Firmung voraus, um zu verdeutlichen, dass die drei Initiationssakramente eine Einheit bilden. Deshalb spricht der Firmling im Gedächtnis an seine Taufe zuerst das Glaubensbekenntnis, wird dann gefirmt und empfängt schließlich das Sakrament der Eucharistie. Zur Bezeichnung: Einige Vertreter der Gläubigentaufe lehnen die Bezeichnung „Kindertaufe“ ab, weil sie selbst auch Kinder taufen – allerdings Kinder, die ihren Glauben selbst bekannt haben (in der Regel ab dem Schulkindalter). Diese sprechen von „Säuglingstaufe“. Auch in den Kirchen, die die Kindertaufe praktizieren, wird mit dem Wort „Kindertaufe“ allein die Taufe von Säuglingen und Kleinkindern bezeichnet; die Taufe von Kindern im Schulkindalter ist, liturgierechtlich gesehen, ein Spezialfall der Erwachsenentaufe. Erwachsenen- oder Gläubigentaufe Die Taufe von Erwachsenen wird in allen Kirchen praktiziert. Dabei begehrt der Täufling persönlich, die Taufe zu empfangen. Er bekennt sich in diesem Zusammenhang selbst öffentlich zum dreieinen Gott. In einigen Kirchen, den sogenannten taufgesinnten Kirchen, ist dies die einzig mögliche Form der Taufe. Ein Teil dieser Kirchen erkennt die Taufe von religionsunmündig getauften Christen beim Übertritt an, wenn diese ein Bekenntnis zu Jesus Christus ablegen und damit – gewissermaßen nachträglich – ihre Kindestaufe gültig machen. Kindertaufen werden in diesen Kirchen aber nicht durchgeführt. Andere taufgesinnte Kirchen sehen eine Kindertaufe als unbiblisch und daher als ungültig an und erwarten, dass sich als Kind getaufte Gläubige beim Übertritt (aus ihrer Sicht erstmals) taufen lassen. Zur Bezeichnung: Die Kirchen, welche die Kindertaufe praktizieren, sprechen üblicherweise von „Erwachsenentaufe“, weil die Taufe von Erwachsenen der Regelfall dieser Taufart ist. (Die Taufe von Kindern etwa im Schulalter, die ihren Glauben selbst bekennen können, ist ein Spezialfall der „Erwachsenentaufe“.) Den Glauben halten auch sie für zur Taufe erforderlich, er müsse aber nicht „vollkommen und reif“, sondern nur in einem „Ansatz, der sich entwickeln kann“, vorhanden sein. Somit ist nach diesen Kirchen der Glaube gerade nicht der Unterschied, sondern vielmehr das Bekenntnis dieses Glaubens; man könnte daher auch von „Bekenntnistaufe“ sprechen, was aber unüblich ist. Ein anderer Ausdruck ist „Mündigentaufe“; das Taufbekenntnis hat aber nichts mit weltlicher Mündigkeit zu tun. Taufritus Das wesentliche, äußerlich sichtbare Element der Taufe ist Wasser. Die Taufform des Urchristentums, die durch Untertauchen das „Begrabenwerden und Auferstehen mit Jesus Christus“ symbolisiert, wird heute noch in den Ostkirchen, bei Baptisten und vielen anderen Freikirchen sowie in der Kirche Jesu Christi der Heiligen der Letzten Tage und bei den Zeugen Jehovas praktiziert. Das nebenstehende Bild zeigt ein Taufbecken aus der Zeit der Frühen Kirche, das dieser ursprünglichen Taufform diente. Die Deutsche Bischofskonferenz hat in diesem Zusammenhang erklärt: „Man kann durch Untertauchen oder durch Übergießen taufen. Die Taufe durch Untertauchen ist besser geeignet, die Teilnahme am Tod und an der Auferstehung Christi auszudrücken. In unseren Verhältnissen wird es im Allgemeinen bei der Taufe durch Übergießen bleiben.“ Die Ostkirchen halten allerdings auch bei Kleinkindern an der Taufe durch Untertauchen fest, führen sie aber erst durch, wenn das neugeborene Kind kräftig genug ist. Die Täufer der Reformationszeit tauften bis auf einige Ausnahmen durch Übergießen. Die in direkter Linie aus dieser Bewegung hervorgegangenen Mennoniten praktizieren heute je nach Gemeinde oder Wunsch des zu Taufenden die Taufe durch Untertauchen (Immersion), durch Begießen (Affusion) oder Besprengen (Aspersion). Eine Ausnahme innerhalb der Mennoniten bilden die Mennonitischen Brüdergemeinden. Sie taufen ausschließlich durch Untertauchen. Die Taufe durch Untertauchen ist im protestantischen Bereich seit Anfang des 17. Jahrhunderts durch die Baptisten und mehrere andere Freikirchen wieder üblich geworden. Sie wird heute in den meisten taufgesinnten Kirchengemeinschaften in dieser Form praktiziert. Manchmal wird das Untertauchen dreimal hintereinander ausgeführt, um die drei Tage im Grab oder die Trinität zu symbolisieren. Tauffeste an Gewässern Die Taufe kann auch außerhalb von Kirchengebäuden in Seen, Flüssen oder Schwimmbädern erfolgen. Bekannt sind Tauffeste der evangelischen und katholischen Kirchen von Bremerhaven am Weserstrand. Auch am Neckar und zahlreichen anderen Gewässern wurde und wird in Deutschland getauft. Taufformel Hinsichtlich der Taufformel gibt es in der Einleitungssequenz geringe Unterschiede, während der weitere Verlauf „… Namen des Vaters und des Sohnes und des Heiligen Geistes“ in den meisten Kirchen identisch ist. In den römisch-katholischen und anglikanischen Kirchen sowie im alexandrinischen Ritus wird die Einleitung mit den Worten „N.N., ich taufe dich im …“, in den meisten ostkirchlichen Riten „Der Diener Gottes N.N. wird getauft im…“ und schließlich nach Martin Luther „N.N., ich taufe dich auf den …“ gesprochen. Im griechischen Urtext () steht εἰς eis mit Akkusativ, was eine Richtung oder einen Zweck angibt (in … hinein; zu). Deutlicher wird Paulus im Römerbrief , dass jene, die „auf“ (εἰς) Jesus Christus getauft sind, „in seinen Tod hinein“ (εἰς τὸν θάνατον αὐτοῦ, eis tòn thánaton autoû) getauft sind. Martin Luther und andere Übersetzer nach ihm übersetzten das εἰς mit „auf“. Diese Formulierung wird oft als Namensgebung missverstanden, daher übernimmt man auch in evangelischen Gemeinden neuerdings die vom lateinischen in nomine abgeleiteten, dem modernen Sprachgebrauch angepasste Fassung „im Namen“. Die Taufformel „εἰς τὸ ὄνομα“ (eis tò ónoma) ist die Übersetzung des rabbinischen לשם – leschem – „im Namen“. Im Talmud wird diese Wendung sowohl im finalen Sinne gebraucht als auch um eine Autorität auszudrücken. Im Neuen Testament weitet sich die Autorität des Gottesnamens auf Jesus aus (). Bei der Taufe „im/auf den Namen des Vaters und des Sohnes und des Heiligen Geistes“ handelt es sich also darum, dass der Täufling in Christus hineingenommen wird und teilhat an dessen Tod und Auferstehung. Einige Kirchen verwenden statt der trinitarischen Taufformel von Mt 28,19 die Formel „auf den Namen Jesu (Christi)“ oder „im Namen Jesu (Christi)“, ohne darin einen Gegensatz zum Missions- und Taufbefehl in Matthäus 28 zu sehen („taufet sie auf den Namen des Vaters und des Sohnes und des heiligen Geistes“). Sie begründen das mit der überlieferten Praxis im Urchristentum (etwa , ) und damit, dass in Matthäus 28 das Wort „Name“ in der Einzahl steht. Nottaufe Die Taufe wird in der Regel von einem Geistlichen durchgeführt, im Notfall kann jedoch in vielen Kirchen auch ein Laie eine gültige Taufe spenden. In der römisch-katholischen Kirche ist die Spendung der Taufe im Notfall sogar durch „jeden von der nötigen Intention geleiteten Menschen“ möglich. Der Taufspender gießt Wasser über den Kopf des Täuflings und spricht dabei: „Ich taufe dich im Namen des Vaters und des Sohnes und des Heiligen Geistes.“ Tauffrömmigkeit und Taufgedächtnis Seit die Kindertaufe ab dem 5. Jahrhundert zur faktischen Norm wurde, bildeten sich verschiedene Riten aus, die die Gläubigen an die eigene Taufe erinnern. In der heutigen katholischen Liturgie zählt dazu die Ausspendung von Weihwasser und die jährliche Erneuerung des Taufversprechens in der Osternacht. Daneben gibt es besondere Andachten, die der Taufe gedenken, z. B. ökumenische Taufgedächtnisse auf Kirchentagen. Die Taufe in Kirchen und Gemeinden Katholische Tauffeier Die römisch-katholische Kirche nennt die Taufe die Grundlage des ganzen christlichen Lebens, das Eingangstor zum Leben im Geist und zu den anderen Sakramenten. Es gibt zwei unterschiedliche liturgische Ordnungen: (1) die „Eingliederung Erwachsener in die Kirche“ (mit einer besonderen Form für Kinder im Schulalter) und (2) die „Feier der Kindertaufe“ (für jüngere Kinder). Die Taufe kann sowohl innerhalb wie außerhalb der heiligen Messe gespendet werden. Besonders empfiehlt sich seit alters her die Taufe in der Feier der Osternacht. Wird die Taufe außerhalb der heiligen Messe gespendet, so findet sie dennoch als liturgische Feier statt. Nachdem der Täufling mit dem Kreuz bezeichnet worden ist, werden Lesungen vorgetragen, etwa das Evangelium von der Taufe des Herrn. Da der Täufling in die Gemeinschaft der Heiligen aufgenommen wird, werden die Heiligen in der Allerheiligenlitanei um ihre Fürbitte angerufen. Es schließt sich der Taufexorzismus und die Salbung mit Katechumenenöl an. Vor der Taufe erfolgt die Heiligung des Taufwassers durch das Weihegebet („Lob und Anrufung Gottes über dem Wasser“). Dem Bekenntnis des christlichen Glaubens geht die Abrenuntiatio diaboli, die Absage an den Satan und das Böse, voran. Bei der „Eingliederung Erwachsener in die Kirche“ folgen auf die Taufe für gewöhnlich in derselben Feier die Firmung und der erste Kommunionempfang. In der römisch-katholischen, altkatholischen und auf Wunsch auch in der anglikanischen Kirche folgt bei der Kindertaufe auf das Sakrament der Taufe die sog. postbaptismale Salbung mit Chrisam; sie verweist auf den Christus-Namen sowie auf die Salbung der Könige, Priester und Propheten im Tanach und soll die Getauften mit einer besonderen Kraft des Heiligen Geistes ausstatten. Es handelt sich nicht um das Sakrament der Firmung. Vielmehr dient der Ritus als Vorausdeutung der Firmung und entfällt, wenn während derselben Feier die Firmung gespendet wird. Danach wird ein weißes Kleid (Taufkleid) überreicht (vgl. Weißer Sonntag), das die unschuldige Reinheit des in der Taufe von allen Sünden Befreiten symbolisiert, der in der Taufe Christus „angezogen“ hat . Der Brauch, eine Taufkerze zu entzünden und zu überreichen, verweist auf das Gleichnis der klugen Jungfrauen, die dem Herrn mit einer Lampe entgegengehen. Bei der Taufe wird dann der Effata-Ritus vollzogen und für den Täufling gebetet. Deutete die Chrisam-Salbung die Firmung voraus, so wird das dritte Initiationssakrament, die Erstkommunion, bei der Kindertaufe nunmehr dadurch angedeutet, dass die anwesende Gemeinde zum Altar, dem Ort des Messopfers, zieht. Dort werden ein Vater unser und ein Ave Maria gebetet und der Segen gespendet. Der Muttersegen kann die Tauffeier abschließen. Bis gegen Ende des 20. Jahrhunderts wurde dieser Ritus als Aussegnung bezeichnet. Er sollte die Reinheit der Täuflingsmutter wieder herstellen und ging auf das aus dem Judentum stammende Reinigungsrituale zurück. Nach Lehre der römisch-katholischen Kirche wirkt die Taufe ex opere operato („aufgrund des vollzogenen Werkes“), denn: „Gegenwärtig ist er [Christus] mit seiner Kraft in den Sakramenten, so daß, wenn immer einer tauft, Christus selber tauft“ (Sacrosanctum Concilium Art. 7). Kommt ein ungetauftes Kind in Todesgefahr, ist sofort ein Priester zu rufen, nötigenfalls muss ein anderer Mensch die Nottaufe spenden. Die Annahme eines limbus puerorum für die Seelen ungetauft gestorbener Kinder wurde 2007 zu einer „nicht vom kirchlichen Lehramt unterstützten älteren theologischen Meinung“ erklärt. Unter genau bestimmten Umständen dürfen katholische Priester in einem katholischen Ritus Kinder von Menschen, die einer nichtkatholischen Ostkirche angehören, erlaubt taufen. Das Kind wird in diesem Fall durch die Taufe nicht katholisch, sondern orthodox oder orientalisch-orthodox (can. 868 § 3 CIC; can. 681 § 5 CCEO). Orthodoxe Tauffeier In der Orthodoxie sind Taufe, Firmung und Ersteucharistie (Erstkommunion) miteinander zu einer einheitlichen Feier der Eingliederung in Christus und die Kirche verbunden. Beim Vollzug der Taufe wird der Täufling vollständig untergetaucht (Immersionstaufe), um das „Sterben und Auferstehen in Christus“ (Röm 6) zu symbolisieren. Auch Kleinkinder empfangen nach ihrer Taufe sogleich die Myronsalbung (entspricht der Firmung) und, soweit nicht auf die nächste Gemeindemesse verschoben, die Kommunion (in Gestalt des Heiligen Blutes). Ebenso handeln im Prinzip die katholisch-unierten Kirchen des Ostens und die Altorientalischen Kirchen wie etwa die Koptische Kirche. Vorkatechumenat Das Gebet zur Geburt des Kindes Das erste präbaptismale Gebet ist das Gebet zur Geburt des Kindes. Die Gebete und die erste Segnung erfolgen durch den Priester, der die Mutter und das Kind besucht. Heute ist der Zeitpunkt der Segnung häufig verschoben, sodass das Gebet auch kurz nach der Geburt gesprochen werden kann. Dies hängt mit den veränderten Lebensumständen zusammen, dass Geburten heute nicht mehr zuhause stattfinden, sodass die erste Segnung nach Verlassen des Krankenhauses der Mutter und des Kindes nachgeholt wird. Die Gebete drücken Dankbarkeit für die Geburt des Kindes aus und bitten um die rasche Genesung der Mutter. Das Gebet am achten Tag nach der Geburt Das Gebet am achten Tag nach der Geburt ist bereits im ältesten byzantinischen Euchologion, dem Codex Barberini gr. 336, aus dem achten Jahrhundert bezeugt. Für dieses Gebet wird das Kind in die Kirche gebracht, und der Priester spricht vor den Türen zum Kirchenschiff zum Kind. In diesem Gottesdienst soll ein Gebet zur Bezeichnung des Kindes mit dem Kreuz und eines zur Namensgebung gesprochen werden. Die Kreuzbezeichnung geht auf eine alte Tradition zurück, bei der ein Taufbewerber, der in den Katechumenat aufgenommen wird, mit dem Kreuz bezeichnet wird. Der Priester spricht: Anschließend singt er das Troparion des Festes der Darstellung Jesu im Tempel und nimmt das Kind auf den Arm. Mittlerweile können die einzelnen Riten auch zusammengefasst werden. Die Namensgebung wird in der Gegenwart kaum noch praktiziert. Als Alternative und Verbindung der Riten kann der folgende Brauch genutzt werden. Das Gebet am vierzigsten Tag nach der Geburt Der dritte präbaptismale Ritus, wird am vierzigsten Tag nach der Geburt vollzogen. Das Kind wird von seiner Mutter und einem Paten in die Kirche gebracht. Männliche Täuflinge werden von einem Taufpaten begleitet, weibliche von einer Taufpatin. Die Gebete richten sich an das Kind, da es an diesem Tag in die enge Kirchengemeinschaft aufgenommen wird, und beinhalten die Bitte des schnellen Heranwachsens des Kindes, sodass es die Taufe und die heilige Kommunion empfangen kann. Eingeschlossen in diese Zeremonie sind auch Reinigungsgebete für die Mutter. Die Mutter wartet zunächst an den Türen des Kirchenschiffs, wo ihr der Priester das Kind abnimmt und es mit dem Kreuzzeichen zeichnet. Er spricht die Worte: Dies wiederholt er in der Mitte der Kirche vor der Ikonostase. Handelt es sich um einen männlichen Täufling, trägt der Priester ihn in den Altarraum, umgeht den Altar und verneigt sich an der Seite. Ein Mädchen wird zu den Ikonen des Heilands und der Gottesmutter an der Königspforte gebracht, um diese dort mit den Lippen zu berühren. Der Priester spricht den Lobgesang des Simeon (Nunc dimittis) und bezeichnet die Stirn, den Mund und die Brust des Täuflings mit dem Kreuzzeichen im Namen der Heiligen Dreieinigkeit und gibt das Kind der Mutter zurück. Katechumenat Der Katechumenat ist die unmittelbare Vorbereitung auf die Taufe. Bei der Taufe eines Kindes übernimmt der Taufpate stellvertretend das Antworten und Handeln für den Täufling. Der Priester holt das Kind in der Vorhalle ab und überzeugt sich, dass Brust und Gesicht des Täuflings unbedeckt sind. Er haucht dreimal in der Form des Kreuzes das Gesicht an und zeichnet das Kreuzzeichen auf Brust und Stirn. Es folgt der vierfache Exorzismus, der durch Gebete und Fragen an den Täufling begleitet wird. Es entsteht so eine Einheit zwischen dem Absagen an Satan, hier hält der Priester den Täufling gen Westen, und dem Zusagen an Christus, bei denen der Priester den Täufling gen Osten hält. Der Ritus mündet in das Nicäno-Konstantinopolitanum. Beendet wird der Katechumenat durch die Worte: Der Ritus der Taufe Zunächst legt der Priester weiße, feierliche Gewänder an. Die Kerzen werden entzündet, während der Priester zum Taufbecken geht und dieses mit Weihrauch inzensiert. Zur Weihe des Taufwassers wird vom Diakon eine zwanzig Bitten enthaltende Ektenie gesprochen. Mit dem zuvor geweihten Öl „salbt der Priester dem Täufling Stirn, Brust und Schultern, zur Heilung der Seele und des Leibes ‚die Ohren, um den Glauben zu hören‘, die Hände, ‚deine Hände haben mich geschaffen und gebildet‘, und die Füße, ‚damit ich wandle auf dem Weg deiner Gebote‘“. Nun wird die Taufe vollzogen. Der Priester hebt den Täufling in Richtung Osten und spricht dreimal: Nach jedem „Amen“ wird der Täufling ganz untergetaucht und mit Wasser übergossen. Anschließend wird dem Täufling ein weißes Gewand angelegt, das als Zeichen der Reinheit, die er durch die Taufe empfing und die er ein Leben lang bewahren soll, gilt. Postbaptismale Riten Myronsalbung Im direkten Anschluss an die Taufe erfolgt die Salbung mit Myron, die Firmung, die die Vollendung der Taufe anzeigt. Die abschließende Myronsalbung zählt als zweites eigenes Sakrament, „ist aber mit der Taufe zu einem einheitlichen Ganzen verbunden.“ In den liturgischen Büchern wird der Übergang von der Taufe zur Myronsalbung nicht vermerkt. Nach der Myronsalbung kann der Täufling an der Eucharistie teilnehmen. Nach dem Gebet salbt der Priester den Täufling mit dem heiligen Myron. Er zeichnet das Kreuz auf Stirn, Augen, Nasenflügel, Mund Ohren, Brust, Hände und Füße. Währenddessen spricht er: Der Priester überreicht dem Täufling ein Kreuz und eine weiße Kerze. Durch die Salbung wird der Täufling vollwertiges Mitglied der orthodoxen Kirche und darf die eucharistischen Gaben empfangen. Abschließend umschreitet der Priester mit dem Getauften und dem Paten dreimal das Taufbecken. Gemeinsam mit allen Anwesenden wird die Antiphon gesungen: „Alle, die ihr auf Christus getauft seid, habt Christus angezogen. Alleluja. Ehre sei dem Vater jetzt und immer.“ (Vgl. ) Es folgen das Schlussgebet, Lesungen und das Evangelium (häufig wird Römerbrief und Matthäusevangelium gelesen). Gebet der Ablution und Tonsur Nach sieben, ursprünglich nach acht Tagen wird der Täufling erneut in die Kirche gebracht, um gewaschen zu werden. Die Abwaschung des Myrons erfolgt durch den Priester als geweihten Amtsträger, da das Myronöl mit höchster Ehrfurcht zu behandeln ist. Anschließend erfolgt die Tonsur. Der Priester schneidet einige Haare des Täuflings ab. Dieser Ritus symbolisiert die Unterordnung des Täuflings gegenüber Christus und die Kampfbereitschaft gegen die Feinde des neuen Lebens. Evangelische Tauffeier Die Taufe kann im sonntäglichen Gemeindegottesdienst oder in einem besonderen Taufgottesdienst stattfinden. Typischerweise wird an der entsprechenden Stelle im Gottesdienstablauf (vor oder nach der Predigt) zunächst ein Tauflied gesungen. Darauf folgt die Frage „Willst du getauft werden?“, nach deren Bejahung das Apostolische Glaubensbekenntnis gesprochen wird. Da in der heutigen Zeit in der Regel Säuglinge getauft werden, antworten für den Täufling die Eltern und Paten stellvertretend auf die Frage, ob das Kind getauft werden solle, und sprechen das Glaubensbekenntnis. Auf die Frage, ob sie auch gewillt sind, das Kind im christlichen Glauben zu erziehen, erfolgt die Antwort „Ja, mit Gottes Hilfe!“. Auf die Frage des Liturgen „Wie heißt das Kind?“ wird der Name genannt. Ältere Täuflinge (meist ab dem Schulalter) werden stattdessen selbst gefragt, ob sie sich taufen lassen möchten. Dann wird die Taufe vollzogen. Dazu kann eine Glocke geläutet werden. Meist erhält der Täufling einen Taufspruch, der ihn auf seinem Lebensweg begleiten soll. In Erinnerung an das Jesuswort „Ich bin das Licht der Welt“ wird auch häufig eine Taufkerze an der Osterkerze entzündet und mit den Worten „Empfange das Licht Christi“ übergeben, die der Täufling als Erinnerung mit nach Hause nimmt. Es folgt die Segnung des Täuflings bzw. der Eltern und Paten. Häufig begrüßt zum Abschluss ein Mitglied des Leitungsorgans (Kirchenvorstand bzw. Presbyterium) der Kirchengemeinde bzw. Pfarrei den Täufling als neues Gemeindeglied. Die Taufe wird mitsamt dem Taufspruch in die Kirchenbücher eingetragen. Im Falle der Säuglingstaufe gibt die spätere Konfirmation dem Täufling die Möglichkeit, selbst noch einmal seine Zugehörigkeit zum christlichen Glauben zu bekräftigen. Seit die Konfirmation zunehmend nicht mehr als Voraussetzung für die Abendmahlsteilnahme verstanden wird, liegt bei ihr der Schwerpunkt wieder stärker auf dieser Bekräftigung. Baptistische Tauffeier Für die baptistische Tauffeier gibt es keine vorgeschriebene Liturgie. In der Regel hat sie jedoch folgenden Ablauf: Der Täufling bekennt sich mit eigenen Worten zu Jesus Christus. Oft schließt sich an das persönliche Zeugnis das gemeinsam gesprochene Apostolische Glaubensbekenntnis an. Danach steigt der Täufling (meist weiß gekleidet) in das Baptisterium oder – sofern die Taufe im Freien stattfindet – in das Gewässer, wo bereits der Täufer (Pastor oder Gemeindeältester) auf ihn wartet. Ein Taufspruch wird verlesen. Daraufhin wird der Täufling durch einmaliges Untertauchen auf den Namen des dreieinigen Gottes (und/oder auf den Namen Jesus) getauft. Anschließend wird der Getaufte unter Handauflegung von den Ältesten der Gemeinde gesegnet und in die Gemeinde aufgenommen. Eine Abendmahlsfeier kann den Taufgottesdienst beschließen. Die Siebenten-Tags-Adventisten praktizieren den Taufgottesdienst in sehr ähnlicher Weise. Neuapostolische Tauffeier Das Sakrament der Heiligen Wassertaufe ist in der Neuapostolischen Kirche die „erste und grundlegende Gnadenmitteilung“ des dreieinigen Gottes an den Menschen. Auch unmündige Kinder können das Sakrament der Heiligen Taufe empfangen. Werden Kinder getauft, bekennen die Eltern ihren Glauben an das Evangelium. Die Taufhandlung erfolgt nach der Sündenvergebung und dem Opfergebet. Bei der Taufe von Kindern werden die Eltern oder Stellvertreter auf die Verantwortung für die Kinderseele im Hinblick auf den Glauben hingewiesen, die sie bis zur Konfirmation des Kindes haben. Nach der Ansprache wird der Täufling bzw. seine Stellvertreter gefragt, ob sie geloben wollen, im neuapostolischen Glauben zu wandeln, in der Treue zum Herrn und seinen Boten nachzufolgen bzw. ihr Kind im neuapostolischen Glauben zu erziehen und in der Treue zum Herrn Jesus Christus zu bewahren. Nach der Bestätigung durch das „Ja“ bringt der Dienstleiter in einem kurzen Gebet das Gelöbnis Gott dar und erfleht dessen besondere Hilfe und Kraft, damit das Gelübde gehalten werden kann. Danach erfolgt die Aussonderung des Wassers, das in einer Taufschale bereitgehalten wird, mit den Worten: Danach benetzt der Dienstleiter mit dem ausgesonderten Wasser dreimal die Stirn des Täuflings, wobei er das Zeichen des Kreuzes macht, und spricht: Unmittelbar daran segnet der Dienstleitende den Täufling durch Auflegung der Hand auf die Stirn des Täuflings. Die Spendung des Sakramentes wird beendet mit den Worten: Die in anderen christlichen Gemeinschaften gespendete Taufe wird als gültig anerkannt, sofern sie „rite“ vollzogen wurde, das heißt im Namen des dreieinigen Gottes und mit Wasser. Das Sakrament der Heiligen Versiegelung ist die Übermittlung von Heiligem Geist. Beide Sakramente, die Wassertaufe und die Versiegelung, bilden zusammen die „Wiedergeburt aus Wasser und Geist“. Der Wiedergeborene ist „Glied am Leib Christi“ und „Erbe der zukünftigen Herrlichkeit“. Gültigkeit und wechselseitige Anerkennung Die Gültigkeit einer Taufe hängt bei den meisten Kirchen nicht von der Konfession des Täuflings oder des Taufenden ab. Die Klärung dieser Frage erfolgte in der Geschichte der Alten Kirche im so genannten Ketzertaufstreit. Von den meisten Kirchen anerkannt wird eine Taufe, die vollzogen ist auf den Namen des dreieinigen Gottes („Ich taufe dich auf den Namen des Vaters, des Sohnes und des Heiligen Geistes“), durch Untertauchen oder Begießen mit Wasser, mit der richtigen Intention (Absicht) des Taufenden. Die Intention muss darin bestehen zu tun, was die Kirche in der Taufe tut. Auf dieser Grundlage wurde für Deutschland am 29. April 2007 die Magdeburger Erklärung unterzeichnet. Die Gültigkeit der Taufe ist in folgenden Fällen umstritten oder wird gegenseitig in Frage gestellt: Bei vielen Freikirchen (insbesondere Baptisten, Mennoniten, Pfingstgemeinden und Siebenten-Tags-Adventisten) hängt die Gültigkeit einer Taufe davon ab, ob der Täufling sich bewusst für die Taufe entschieden hat. Christen, die als Säuglinge getauft wurden, gelten dort in der Regel als ungetauft. Sie werden dennoch in der Regel, sofern sie sich zum christlichen Glauben bekennen, als Mitchristen anerkannt, aber nicht in allen Kirchen und Gemeinden zur Teilnahme am Abendmahl zugelassen. Freie evangelische Gemeinden und einige baptistische Gemeinden haben allerdings Sonderregelungen aus seelsorglichen Gründen. Sie erkennen den Gewissenskonflikt von als Kleinkind Getauften an und verzichten in Ausnahmefällen auf eine (aus der Sicht dieser Gläubigen) nochmalige Taufe. Diese Gläubigen werden trotzdem als Mitglieder in die Gemeinde integriert. Die Arbeitsgemeinschaft Mennonitischer Gemeinden formulierte im Vorfeld der Magdeburger Erklärung von 2007, dass prinzipiell jede Taufe anerkannt werden könne, sofern sie von dem betreffenden Glaubenden selbst als gültig anerkannt werde. Mit der Gemeinsamen Erklärung zur Eucharistischen Gastbereitschaft mit den lutherischen Landeskirchen besteht in Deutschland seit 1996 auch eine lutherisch-mennonitische Abendmahlsgemeinschaft. In Baptistengemeinden werden auch Kleinkind-Getaufte generell zum Abendmahl zugelassen, sie gelten aber sonst – von den oben erwähnten Sonderregeln abgesehen – nicht als stimmberechtigt in den Gemeindeversammlungen. Mit dem Konvergenzdokument der Bayerischen Lutherisch-Baptistischen Arbeitsgruppe (BALUBAG) Voneinander lernen – miteinander glauben. Ein Herr, ein Glaube, eine Taufe (2009) ist die Diskussion um die Anerkennung der Kindertaufe innerhalb der baptistischen Gemeindebundes erneut entfacht. Das Papier empfiehlt eine gegenseitige volle Kirchenanerkennung: „Durch das genaue Bedenken der bisherigen Konflikte in der Praxis von Taufe und Abendmahl erarbeiteten wir Vorschläge, durch die ein Grundkonsens in der evangeliumsgemäßen Gestaltung von Taufe und Abendmahl erreicht wurde. Daher empfehlen wir unseren Kirchen die Aufnahme von Kanzel- und Abendmahlsgemeinschaft.“ Von einigen Kirchen und Gemeinschaften wird das Untertauchen zwingend verlangt. Manche freikirchlichen Kreise taufen unter Berufung auf die Apostelgeschichte ausschließlich „auf den Namen Jesu“ (Erläuterung siehe oben bei Taufformel). Ökumenische Diskussion In Deutschland In der aktuellen ökumenischen Diskussion in Deutschland wird der alle Christen verbindende Charakter der Taufe betont. So heißt es in einer Erklärung zum Kirchenverständnis, die 2006 auf der 9. Vollversammlung des Ökumenischen Rates der Kirchen verabschiedet wurde: „Durch Gottes Gnade macht die Taufe sichtbar, dass wir zueinander gehören, auch wenn einige Kirchen noch nicht in der Lage sind, andere als Kirchen im vollen Wortsinn anzuerkennen.“ Dabei wird der Brückenschlag auch zu denjenigen Christen versucht, die keine Wassertaufe praktizieren. Die Kompromissformel lautet: „das gemeinsame Grundmuster einer in der Taufe gründenden christlichen Initiation“. Am 26. März 1996 wurde in Düsseldorf die „Vereinbarung der Evangelischen Kirche im Rheinland zwischen dem Erzbistum Köln sowie den Bistümern Aachen, Essen, Münster und Trier zur gegenseitigen Anerkennung der Taufe“ von den damaligen leitenden Geistlichen unterzeichnet. Absicht dieser Übereinkunft war und ist es, die in Christus gegebene Einheit in der Taufe deutlicher zum Ausdruck zu bringen und Unstimmigkeiten über den gültigen Vollzug der Taufe in Zukunft möglichst auszuschließen. Ähnliche Vereinbarungen auf landeskirchlicher oder Bistums-Ebene gab es auch in den meisten anderen Regionen. Diese Abkommen wurde am 29. April 2007 in der Magdeburger Erklärung auf den gesamten Bereich der Deutschen Bischofskonferenz und der EKD ausgeweitet und von den Vertretern von insgesamt elf Kirchen unterzeichnet. International Die Lima-Erklärung vom Januar 1982 formuliert die Gemeinsamkeit der Taufauffassung der im Ökumenischen Rat der Kirchen (ÖRK) zusammengeschlossenen Kirchen. Vertreter der nicht dem ÖRK angeschlossenen römisch-katholische Kirche waren bei der Ausarbeitung der Thesen beteiligt. Unterschiede zwischen den einzelnen Konfessionen wurden dabei bewusst ausgespart. Taufe durch den Heiligen Geist Pfingstlerische und charismatische christliche Kirchen betonen neben der sichtbaren, äußeren Taufhandlung besonders die Taufe durch den Heiligen Geist. Nichtcharismatische Kirchen sehen in der Taufe durch den Heiligen Geist eher eine innere Wandlung als eine nach außen sichtbare Veränderung. Die Mitwirkung des Heiligen Geistes bei der Wassertaufe wird dabei nicht infrage gestellt. Die Geistestaufe wird auch im Neuen Testament erwähnt (Mk. 1,8). Es gibt den Geistempfang (Apg. 19,6), der einer Taufe sogar vorausgehen kann (Apg. 10,44 ff.) Die Neuapostolische Kirche kennt dafür das Sakrament der Versiegelung. Vor allem in Kreisen des Dispensationalismus, das heißt in denen die Bibel heilsgeschichtlich eingeteilt wird, wird die Geistestaufe als ein mit der Wiedergeburt identisches Ereignis gesehen. Dies wird mit den Bibelstellen in 1Kor und Apg begründet. Rechtliche Bedeutung Innenrecht der Religionsgemeinschaft („Kirchenrecht“) In vielen Religionsgemeinschaften begründet die Taufe in kirchenrechtlicher Hinsicht die Mitgliedschaft des Getauften in der Ortsgemeinde und zugleich der Religionsgemeinschaft. So bestimmt etwa § 6 Satz 1 des Kirchenmitgliedschaftsgesetz der EKD: Die Voraussetzungen der Taufe sind in den evangelischen Landeskirchen in den Lebensordnungen geregelt, in der römisch-katholischen Kirche im Codex Iuris Canonici. Die Taufe ist eine Amtshandlung, die meist in die Kirchenbücher einzutragen ist (Beurkundung). So bestimmt es etwa Art. 10 Abs. 1 Satz 1 der Kirchlichen Lebensordnung „Taufe“ in Verbindung mit § 1 der Kirchenbuchordnung der Evangelischen Landeskirche in Baden. In das Taufbuch werden dabei neben dem Datum und Angaben zu Taufendem und Täufling auch der Taufspruch angegeben (§ 9). Über die Taufe wird ein Taufschein ausgestellt (vgl. etwa Art. 10 Abs. 2 der genannten Lebensordnung). Staatliches Recht („Staatskirchenrecht“) Neben dieser kirchenrechtlichen Bedeutung der Taufe kann sie auch Rechtsfolgen für die staatliche Rechtsordnung haben. Inwieweit der Staat die durch Taufe begründete Kirchenmitgliedschaft anerkennt, regelt das (weltliche) Staatskirchenrecht. In Deutschland ist es dem Staat auf Grund der Trennung von Staat und Kirche und seiner weltanschaulichen Neutralität verwehrt, zu bestimmen, wer einer Kirche angehört. Die mitgliedschaftliche Zugehörigkeit zu einer Religionsgesellschaft ordnet diese vielmehr nach Abs. 3 WRV in Verbindung mit GG als eigene Angelegenheit selbständig innerhalb der Schranken des für alle geltenden Gesetzes. Anders sieht es aber dann aus, wenn die Religionsgemeinschaften vom Staat abgeleitete Befugnisse wahrnehmen oder das staatliche Recht an die Mitgliedschaft Rechtsfolgen knüpft (z. B. Kirchensteuereinzug). Dann nämlich ist die negative Religionsfreiheit des Mitglieds, also das Grundrecht, einer Religion nicht anzugehören, gegen das Selbstbestimmungsrecht der Religionsgemeinschaft abzuwägen. Das Bundesverfassungsgericht sieht aber durch die Taufe und die staatlichen Kirchenaustrittsgesetze der Länder sichergestellt, dass niemand gegen seinen Willen im staatlichen Recht als Mitglied einer Religionsgemeinschaft behandelt wird. Dies gelte auch für die Kindstaufe, wo die sorgeberechtigten Eltern für ihre Kinder handelten. Im Ergebnis erkennt das staatliche Recht also die durch Taufe begründete Mitgliedschaft auch da an, wo daraus Rechte oder Pflichten im staatlichen Bereich folgen. Hierfür ist der Taufakt im Säuglingsalter ausreichend. 2019 urteilte das Verwaltungsgericht Berlin, dass eine 66-jährige Frau, die ohne Bezug zur Religion aufgewachsen war und gelebt hatte, rückwirkend kirchensteuerpflichtig war, weil sie im Säuglingsalter getauft worden war und ihre Eltern, als sie wenige Jahre später aus der Kirche ausgetreten waren, nicht gleichzeitig den Austritt des Kleinkindes erklärt hatten. Im Jahre 2011 scheiterte der Versuch eines Vaters, die Taufe seines Kindes, für das gemeinsames Sorgerecht bestand, für ungültig erklären zu lassen (Verwaltungsgericht Augsburg, Beschluss vom 31. Mai 2011, Az. Au 3 K 11.282) In einem anderen Fall wehrte sich der Vater nach der trotz gemeinsamen Sorgerechts einseitig entschiedenen Taufe seines Kindes gegen die Erziehung in einem katholischen Kindergarten. Das Gericht entschied, da die Mutter das Kind bei sich aufziehe, sei in diesem Kontext die erziehende Mutter naturgemäß die Person, die auch über die Religionszugehörigkeit zu entscheiden habe. Die Mutter als Hauptbezugsperson des Kindes werde diesem ohnehin katholische Werte vermitteln, so dass eine anderweitige Entscheidung in einer Einzelfrage zu einem Bruch der Erziehungskontinuität führen könnte (OLG Oldenburg, Beschluss vom 9. Februar 2010, Az. 13 UF 8/10). Siehe auch Kasualien Totentaufe Wiedertaufe Ganzkörpertaufe Taufaufschub Literatur Allgemein Markus Graulich, Ralph Weimann: Taufvorbereitung und Taufgespräch. Ein Leitfaden für Eltern und Seelsorger, Regensburg 2019, ISBN 978-3-7917-6160-2. Martin Seils: Die Sakramentalität der Taufe in der gegenwärtigen Taufdiskussion. In: Taufe und neue Existenz. Hg. v. Erdmann Schott. Evangelische Verlagsanstalt, Berlin 1973, S. 109–127. Orthodoxe Literatur Petros Bozinis: Les prières pour le baptême dans l'Euchologe Barberini grec 336. Analyse théologique et rituelle. Diss. Strasbourg 2013. Baptistische Literatur Weblinks Orientierungshilfe zu Verständnis und Praxis der Taufe in der evangelischen Kirche. Vorgelegt vom Rat der EKD, 2008, hrsg. vom Kirchenamt der EKD (PDF; 486 kB) Bund Evangelisch-Freikirchlicher Gemeinden (Baptisten): Stellungnahme zur gegenseitigen Taufanerkennung mit Darlegung der baptistischen Position (PDF; 24 kB) Mennoniten: Zur Taufpraxis in deutschen Mennonitengemeinden Römisch-katholische Kirche: Das Sakrament der Taufe im Katechismus der Katholischen Kirche (1997) Neuapostolische Kirche: Die Heilige Wassertaufe Dossier rund um die Taufe auf katholisch.de: Begriffserläuterungen, Tipps, FAQ und mehr Einzelnachweise Biblisches Thema Passageritus Sakrament Familienfest
Q35856
467.75099
32647
https://de.wikipedia.org/wiki/Interprozesskommunikation
Interprozesskommunikation
Der Begriff Interprozesskommunikation (, kurz IPC) bezeichnet in der Informatik verschiedene Verfahren des Informationsaustausches zwischen den Prozessen eines Systems. Mithilfe eines Shared Memory erfolgt die Kommunikation dadurch, dass mehrere Prozesse auf einen gemeinsamen Datenspeicher zugreifen können, beispielsweise gemeinsame Bereiche des Arbeitsspeichers. Bei einer Message Queue dagegen werden Nachrichten von einem Prozess an eine Nachrichtenschlange geschickt, von wo diese von einem anderen Prozess abgeholt werden können. Die Kommunikation zwischen den Prozessen sollte in einer gut strukturierten Weise erfolgen. Um Race Conditions zu vermeiden, sollten die kritischen Abschnitte, in denen auf gemeinsam genutzten Speicher zugegriffen wird, vor einem (quasi-)gleichzeitigen Zugriff geschützt werden. Dies kann durch verschiedene Mechanismen wie Semaphore oder Monitore realisiert werden. Wenn jedoch jeder Prozess aus einer Menge von Prozessen auf ein Ereignis wartet, das nur ein anderer Prozess aus der Menge auslösen kann, entsteht eine Deadlock-Situation. Klassische Problemstellungen der Interprozesskommunikation sind das Erzeuger-Verbraucher-Problem, das Philosophenproblem und das Leser-Schreiber-Problem. Grundlagen Ein Programm ist eine den Regeln einer bestimmten Programmiersprache genügende Folge von Anweisungen (bestehend aus Deklarationen und Instruktionen), um bestimmte Funktionen bzw. Aufgaben oder Probleme mithilfe eines Computers zu bearbeiten oder zu lösen. Jedes Programm wird normalerweise in einem (Betriebssystem-)Prozess ausgeführt, der zum Ablauf einem Prozessor zugeordnet werden muss. Ein Prozess stellt auf einem Rechnersystem die Ablaufumgebung für ein Programm zur Verfügung und ist eine dynamische Folge von Aktionen mit entsprechenden Zustandsänderungen, oder anders gesagt, die Instanzierung eines Programms. Als Prozess bezeichnet man auch die gesamte Zustandsinformation eines laufenden Programms. Werden verschiedene Prozesse in kurzen Abständen immer abwechselnd aktiviert, entsteht der Eindruck von Gleichzeitigkeit, auch wenn zu jedem Zeitpunkt unter Umständen immer nur ein Prozess verarbeitet wird (oder zumindest die Anzahl der Prozesse wesentlich höher ist als die Anzahl der vorhandenen CPUs). In Multitasking-Systemen laufen die meisten Prozesse nebenläufig und wissen kaum etwas voneinander. Ein Speicherschutz schützt das Betriebssystem davor, dass ein Prozess auf die Speichersegmente eines anderen Prozesses zugreifen kann (und so die Stabilität des Systems beeinträchtigen würde). Voraussetzung dafür ist eine Memory Management Unit (Speicherverwaltungseinheit, kurz MMU). Dennoch gibt es Anwendungsfälle, bei denen Prozesse mit anderen Prozessen kommunizieren müssen. Einige davon sind: Mehrere Prozesse müssen spezielle Daten gemeinsam verwenden. Die Prozesse sind untereinander abhängig und müssen aufeinander warten. Daten müssen von einem Prozess an einen anderen weitergereicht werden. Die Verwendung von Systemressourcen muss koordiniert werden. Kommunikation meint in diesem Zusammenhang grundsätzlich den Austausch von Informationen nach bestimmten Regeln. Sie sollte also in einer gut strukturierten Weise erfolgen. Das Regelwerk fasst man in der Datenkommunikation bzw. bei Rechennetzwerken unter dem Begriff Protokoll zusammen. Beispiele: Drucker-Spooler: Wenn ein Prozess eine Datei drucken möchte, trägt er den Dateinamen in einen speziellen Spoolerordner (spooler directory) ein. Ein anderer Prozess, der Drucker-Daemon (printer daemon), überprüft zyklisch, ob es irgendwelche Dateien zu drucken gibt. Wenn es welche gibt, druckt er diese aus und entfernt danach ihren Namen wieder aus dem Ordner. Pipe: Durch die Eingabe eines „|“-Zeichens in der Unix-Shell wird die Ausgabe eines ersten Prozesses an einen zweiten Prozess weitergereicht. Man nennt zwei Prozesse konkurrent, wenn es mindestens ein Zeitintervall gibt, in dem sie beide begonnen, aber nicht abgeschlossen sind. Im Einprozessorsystem können konkurrente Prozesse nur abschnittweise sequentiell bearbeitet werden, während im Mehrprozessorsystem datenunabhängige Abschnitte gleichzeitig ausgeführt werden können. Ein Betriebsmittel muss in dem Sinne determiniert sein, dass unter der Kontrolle des Betriebssystems ablaufende Programme jeweils identische Resultate liefern, unabhängig davon, in welcher Umgebung sie ablaufen, d. h. unabhängig mit welchen anderen Programmen zusammen. Andererseits sind die tatsächlichen Vorgänge nicht-determiniert, da es möglich sein muss, auf Ereignisse unabhängig von der Reihenfolge ihres Auftretens zu reagieren. Solche Ereignisse sind beispielsweise Betriebsmittelanforderungen, Laufzeitfehler und asynchrone Unterbrechungen, die von Ein- und Ausgabegeräten erzeugt werden. Techniken Speicherbasierte Kommunikation Shared Memory Mit der Shared Memory stellt das Betriebssystem einen Mechanismus bereit, durch den mehrere Prozesse auf einen gemeinsamen Datenspeicher zugreifen können. Um dies zu ermöglichen, muss ein Prozess als Erstes einen gemeinsamen Datenspeicher anlegen. Danach müssen alle Prozesse, die ebenfalls darauf zugreifen sollen, mit diesem Datenspeicher bekannt gemacht werden: Dies geschieht, indem der Speicherbereich im Adressraum der entsprechenden Prozesse eingefügt wird (siehe auch Speicherverwaltung). Ebenfalls muss hierbei den Prozessen mitgeteilt werden, wie diese auf den Speicherbereich zugreifen können (lesend / schreibend). Wurde all dies erledigt, kann der Datenspeicher wie ein gewöhnlicher Speicherbereich verwendet werden. Shared Memory ist die schnellste Form der Interprozesskommunikation, da von zwei oder mehreren Prozessen ein bestimmter Speicherbereich gemeinsam benutzt wird, und somit das Kopieren zwischen Server und Clients nicht notwendig ist. Für eine ordnungsgemäße Kommunikation muss jedoch darauf geachtet werden, dass die einzelnen Prozesse untereinander synchronisiert werden. Als Mechanismus für die Prozesssynchronisation werden häufig Monitore oder Semaphore verwendet. Bei der Speicherverwaltung mittels Paging kann Shared Memory durch die Verwendung von gemeinsamen Seiten umgesetzt werden. Es verweisen dabei mehrere Seitentabelleneinträge verschiedener Prozesse auf gemeinsam genutzte Speicherbereiche (Seitenrahmen) im physischen Arbeitsspeicher. Kommunikation über Dateien Eine einfache Form der Kommunikation ist der Austausch von Dateien: Ein Prozess kann Daten in Dateien schreiben, die ein anderer Prozess ebenfalls lesen (oder beschreiben) kann. Diese Variante erfordert ebenfalls eine Synchronisation. Häufig bietet das Betriebssystem einen Lock-Mechanismus an, der ganze Dateien sperrt. Es sind aber auch klassische Mechanismen wie Semaphore möglich. Nachrichtenbasierte Kommunikation Message Queue (Nachrichtenschlange) Bei diesem Mechanismus werden Nachrichten von einem Prozess an eine Message Queue (dt. Nachrichtenschlange) geschickt, die in Form einer verketteten Liste verwaltet wird. Dort kann die Nachricht von einem anderen Prozess abgeholt werden. Jede Message Queue hat eine eindeutige Kennung, wodurch sie auch von einem anderen Prozess identifiziert werden kann. Normalerweise wird nach dem First-In-First-Out-Prinzip (FIFO) gearbeitet. Die Nachrichten können aber auch mit einer Priorität versehen werden. Wenn ein Prozess eine Nachricht mit einer Priorität N abholt, holt er sich in der Schlange (Queue) die erste Nachricht mit der Priorität N, auch wenn diese beispielsweise als letzte eingefügt wurde. Warteschlangen werden beispielsweise häufig zur Datenübergabe zwischen asynchronen Prozessen in verteilten Systemen verwendet, wenn also Daten vor ihrer Weiterverarbeitung gepuffert werden müssen. Der Zugriff erfolgt dabei durch im Betriebssystem verankerte APIs. Die Größe der Warteschlange wird durch das Betriebssystem limitiert. (Namenlose) Pipes Die Pipe (oder Pipeline, von engl. Rohrleitung) ist eine der wichtigsten Anwendungen für Warteschlangen. Es handelt sich um einen Datenstrom zwischen zwei Prozessen durch einen Puffer nach dem FIFO-Prinzip. Das bedeutet vereinfacht, dass ein Ergebnis eines Computerprogramms als Eingabe eines weiteren Programms verwendet wird. Es handelt sich um die älteste und erste Technik der Interprozesskommunikation. Sie wurde 1973 von Douglas McIlroy für das Betriebssystem Unix erfunden. Eine Pipe besitzt immer die folgenden zwei grundlegenden Eigenschaften: Bei einer Pipe können Daten immer nur in eine Richtung fließen. Ein Prozess kann praktisch immer nur in eine Pipe schreiben oder aus einer Pipe lesen. Will man anstatt der Halbduplex-Verbindung eine Vollduplex-Verbindung erstellen, benötigt man dazu zwei Pipes zwischen den Prozessen. Pipes können nur von Prozessen eingerichtet werden, die gemeinsame Vorfahren besitzen. Gewöhnlich wird eine Pipe eingerichtet, indem ein Elternprozess eine Pipe erzeugt und einen Kindprozess mittels fork() kreiert, der dabei diese Pipe erbt. Anschließend steht einer guten Kommunikation zwischen dem Elternprozess und dem Kindprozess nichts mehr im Wege. In unixoiden Betriebssystemen werden die Programme über das Pipe-Symbol „|“ verbunden. Beispielsweise sendet who | sort die Ausgabe von who in das sort-Programm, wodurch eine alphabetisch geordnete Liste der angemeldeten Benutzer ausgegeben wird. Benannte Pipes (FIFO-Pipes) Unbenannte Pipes können nur mit den Prozessen kommunizieren, die miteinander verwandt sind. Benannte Pipes (engl. named pipes, auch FIFO-Pipes) können dagegen auch zur Kommunikation zwischen Prozessen eingesetzt werden, die nicht miteinander verwandt sind. Dazu bekommen sie wie Dateien entsprechende Namen. Jeder Prozess, der den Namen einer benannten Pipe kennt, kann über diesen Namen die Verbindung zur Pipe und damit zu anderen Prozessen herstellen. Für benannte Pipes müssen auch Zugriffsrechte vergeben werden, d. h., es muss festgelegt werden, wer in diese etwas schreiben und wer daraus auslesen darf. Sockets Sockets bieten eine Schnittstelle für die Kommunikation zwischen Prozessen, die möglicherweise auf demselben oder auf verschiedenen Computersystemen ausgeführt werden. Sie sind der Kern jeder Netzwerkkommunikation. Ein Socket stellt eine Verbindung zwischen zwei Punkten her, durch die Daten gesendet und empfangen werden können. Jeder Punkt ist durch eine IP-Adresse und einen Port gekennzeichnet. Im Gegensatz zu Pipes kann ein Socket gleichzeitig mit mehreren anderen in Kontakt stehen und kann auch von laufenden Programmen eingerichtet werden. Ursprünglich wurde die Socket-API 1984 für das BSD-Unix zur Kommunikation zwischen verschiedenen Rechnern über ein Netzwerk eingeführt, es besteht allerdings auch die Möglichkeit, eine Kommunikation zwischen Prozessen auf demselben Rechner auszuführen. Dies wird über den Geltungsbereich (domain) festgelegt: Der Bereich local domain ermöglicht die Kommunikation unterschiedlicher Prozesse auf einem Rechner, der Bereich internet domain den Informationsaustausch zwischen Prozessen auf unterschiedlichen Rechnern über die TCP/IP-Protokollfamilie. Wie die TCP/IP-Protokollfamilie sind BSD-Sockets mittlerweile auch in den meisten wichtigen Betriebssystemen außerhalb der Unix-Familie implementiert worden. Race Conditions Unabhängige (disjunkte) Prozesse können beliebig „nebeneinander“ ablaufen, da sie nicht auf gemeinsame Daten schreiben. Sie können aber durchaus auf gewisse Daten gemeinsam zugreifen (diese dürfen während der Laufzeit nur nicht verändert werden). Wenn konkurrente Prozesse jedoch gemeinsame Daten enthalten, die verändert werden, spricht man von überlappenden Prozessen. Probleme, die dabei entstehen können, verdeutlicht das folgende Beispiel, bei dem die Variable a gleichzeitig von Prozess 1 und Prozess 2 benutzt wird: a := 10 Prozess 1 Prozess 2 (1.1) a := a*a (2.1) a := a/2 (1.2) print(a) (2.2) print(a) Die Ergebnisse, die Prozess 1 und Prozess 2 drucken, hängen von der Reihenfolge ab, in der ihre Anweisungen ausgeführt werden. Beispielsweise liefert bei der Anweisungs-Reihenfolge 1.1-1.2-2.1-2.2 Prozess 1 das Ergebnis 100 und Prozess 2 das Ergebnis 50. Bei der Anweisungsreihenfolge 2.1-1.1-1.2-2.2 geben jedoch beide Prozesse das Ergebnis 25 aus. Die unterschiedlichen Ergebnisse hängen also von den relativen Geschwindigkeiten der überlappenden Prozesse ab. Die Art von Fehler in einem System oder einem Prozess, in dem der Ausgang des Prozesses unerwartet von der Reihenfolge oder Dauer anderer Ereignisse abhängt, nennt man Race Condition (Wettlaufsituation). Der Begriff entstammt der Vorstellung, dass zwei Signale in einem Wettlauf versuchen, die Systemantwort jeweils zuerst zu beeinflussen. Race Conditions sind ein häufiger Grund für nur schwer auffindbare Programmfehler. Die Schwierigkeit liegt darin, dass sie nur selten, unter gewissen Bedingungen, auftreten. Ein geändertes Speichermodell oder Laufzeitverhalten des Systems kann den Fehler wieder „unsichtbar“ machen. Andrew S. Tanenbaum macht das folgende Beispiel für eine Race Condition: Wenn ein Prozess einen Druckauftrag erteilt, trägt er den Dateinamen der zu druckenden Datei in eine Spooler-Ordner (spooler directory) ein. Der Drucker-Daemon prüft regelmäßig, ob es irgendwelche Dateien zu drucken gibt. Falls dies zutrifft, druckt er diese aus und entfernt danach ihren Namen wieder aus dem Ordner. Die Einträge seien mit 0, 1, 2 … nummeriert und es gebe zwei Variablen: out zeigt auf die nächste zu druckende Datei und in auf den nächsten freien Eintrag im Ordner. Seien nun die Einträge 0 bis 3 leer (bereits ausgedruckt) und die Einträge 4 bis 6 belegt (mit Namen von Dateien, die gedruckt werden sollen). Zwei Prozesse und entscheiden sich nun mehr oder weniger gleichzeitig, dass sie eine weitere Datei zum Ausdruck einreihen wollen. Es kann nun folgendes passieren: Der Prozess liest in aus und speichert deren Wert 7 in der lokalen Variable next_free_slot. Genau jetzt erfolgt ein Timerinterrupt und die CPU entscheidet, dass der Prozess nun lange genug gelaufen ist, und wechselt deshalb zum Prozess . Der Prozess liest in aus und bekommt genau wie eine 7. Auch er speichert sie in seiner lokalen Variablen next_free_slot. In diesem Augenblick glauben beide Prozesse, dass der nächste verfügbare Eintrag 7 ist. Wenn Prozess nun weiterläuft, speichert er den Namen seiner Datei im Eintrag 7 und aktualisiert in auf 8. Ist Prozess wieder an der Reihe, so weist next_free_slot auf den Eintrag 7 und er löscht also den Eintrag, den Prozess soeben angelegt hatte. Danach setzt Prozess in wiederum auf 8. Prozess wird dadurch niemals eine Ausgabe erhalten. Führt ein Prozess interne Berechnungen durch, ist dies unproblematisch. Manchmal muss er aber auch auf gemeinsam genutzten Speicher oder Dateien zugreifen oder andere kritische Operationen ausführen. Dies kann zu eben solchen Wettlaufsituationen führen. Die Teile des Programms, in denen auf gemeinsam genutzten Speicher zugegriffen wird, bezeichnet man als kritischen Abschnitt (critical section) oder kritische Region (critical region). Im Gegensatz dazu sind unkritische Abschnitte solche, in denen nicht auf von mehreren Prozessen gemeinsam benutzte Daten zugegriffen wird. Kritische Abschnitte in Prozessen müssen eindeutig gegen die unkritischen Abschnitte abgegrenzt sein. Andrew S. Tanenbaum nennt vier Bedingungen, die eingehalten werden müssen, um Race Conditions zu vermeiden: Keine zwei Prozesse dürfen gleichzeitig in ihren kritischen Abschnitten sein. Es braucht also einen wechselseitigen Ausschluss (mutual exclusion) der Prozesse. Es dürfen keine Annahmen über Geschwindigkeit und Anzahl der CPUs gemacht werden. Kein Prozess, der außerhalb seines kritischen Abschnitts läuft, darf andere Prozesse blockieren. Kein Prozess sollte ewig darauf warten müssen, in seinen kritischen Abschnitt einzutreten. Synchronisation Aktives Warten Unter aktivem Warten (busy waiting) versteht man das fortlaufende Überprüfen einer Variablen, bis ein gewisser Wert erscheint. Nach diesem Prinzip wird ein Spinlock verwendet, um eine gemeinsam genutzte Ressource vor konkurrenten Prozessen zu schützen. Während sich ein Prozess in einem kritischen Abschnitt befindet, muss ein anderer Prozess, der ebenfalls den kritischen Abschnitt betreten will, „aktiv“ warten. Dadurch wird jedoch viel CPU-Zeit verschwendet. Sperrvariablen und strikter Wechsel Um zu verhindern, dass mehrere Prozesse gleichzeitig einen kritischen Abschnitt betreten, kann man eine Sperrvariable einführen, die nur die Werte 0 oder 1 annehmen kann. Wenn nun ein Prozess den kritischen Abschnitt betreten will, fragt er zunächst die Sperrvariable ab. Ist diese 1, so ist die Sperre gesetzt und der Prozess muss warten, bis ein anderer Prozess den kritischen Abschnitt verlassen hat. Ist sie 0, befindet sich kein Prozess im kritischen Abschnitt. Der Prozess setzt die Sperrvariable also auf 1 und betritt den kritischen Abschnitt. Beim Verlassen setzt er die Variable wieder auf 0, damit wieder andere Prozesse den kritischen Abschnitt betreten können. Ein Prozess braucht also bei Eintritt zwei Operationen, eine zum Testen der Sperrvariable und eine zum Setzen der Sperrvariable. Es besteht jedoch folgendes Fehlerszenario: Es kann passieren, dass Testen und Setzen der Sperrvariable durch eine CPU-Scheduling-Entscheidung unterbrochen wird: Ein Prozess sieht, dass die Sperre 0 ist, doch bevor er diese auf 1 setzen kann, wird er unterbrochen. In der Zwischenzeit setzt ein Prozess die Sperre auf 1. Wenn nun Prozess wieder an der Reihe ist, setzt er die Sperre ebenfalls auf 1 und es befinden sich zwei Prozesse gleichzeitig im kritischen Abschnitt. Abhilfe dagegen schafft ein strikter Wechsel mit einer ganzzahligen Variablen turn. Wenn turn auf 1 gesetzt ist, kann der Prozess den kritischen Abschnitt betreten. Wenn nun den kritischen Abschnitt wieder verlässt, setzt er turn auf 2. Dies ermöglicht es den kritischen Abschnitt zu betreten. Am Ende des kritischen Abschnitts setzt dann seinerseits turn wieder auf 1. Dieses „sich Abwechseln“ ist jedoch keine gute Voraussetzung, wenn einer der Prozesse sehr viel langsamer als der andere ist. Der eine Prozess hängt solange in einer Warteschleife fest, bis der andere Prozess den kritischen Abschnitt wieder freigibt. Wechselseitiger Ausschluss mit Hardware-Unterstützung Um zu verhindern, dass ein Prozess zwischen Lesen und Setzen einer Sperrvariablen die CPU verliert (und dadurch versehentlich zwei Prozesse in einen kritischen Abschnitt eintreten), kann auf Hardware-Unterstützung zurückgegriffen werden. In manchen Prozessorarchitekturen ist der TSL-Befehl (Test and Set Lock) verfügbar, der in einer unteilbaren Operation einen Registerwert liest und schreibt. Durch den Befehl TSL RX LOCK wird der Inhalt des Speicherwortes LOCK ins Register RX eingelesen und ein Wert ungleich null wird dann an der Speicheradresse von LOCK abgelegt. Solange die CPU den TSL-Befehl ausführt, kann kein anderer Prozess auf das Speicherwort zugreifen. Der Speicherbus bleibt gesperrt. Um den Zugriff auf einen kritischen Abschnitt zu koordinieren, kann also eine gemeinsam genutzte LOCK-Variable eingesetzt werden. Wenn ein Prozess eintreten will, kopiert er die Sperrvariable LOCK ins Register RX und überschreibt sie mit einem Wert ungleich 0 (mit dem TSL-Befehl in einer einzigen unteilbaren Operation). Nun vergleicht er den alten Wert, der nun in RX steht, mit 0. Falls dieser nicht 0 ist, war die Sperre bereits gesetzt, also geht das Programm in die Warteschleife. Wenn der Wert 0 wird, kann der aufrufende Prozess den kritischen Abschnitt betreten. Wenn ein Prozess den kritischen Abschnitt verlässt, setzt er mithilfe eines gewöhnlichen MOVE-Befehls den Wert von LOCK wieder zurück auf 0. Siehe dazu den folgenden Assembler-Code: enter_critical_section: TSL RX LOCK // kopiere die Sperrvariable LOCK ins Register RX und überschreibe LOCK mit einem Wert ungleich 0 CMP RX, #0 // war die Sperrvariable 0? JNE enter_critical_section // wenn der Wert nicht 0 ist, dann war die Sperre schon gesetzt -> gehe in die Schleife RET // sonst springe zurück und betrete kritischen Abschnitt leave_critical_section: MOVE LOCK, #0 // speichere 0 in die Sperrvariable LOCK RET // springe zurück Eine Alternative zu TSL ist der XCHG-Befehl, der die Inhalte zweier Speicherstellen automatisch austauscht, zum Beispiel von einem Register und einem Speicherwort. Algorithmus von Peterson Der Algorithmus von Peterson wurde 1981 von Gary L. Peterson formuliert und bietet eine Lösung für das wechselseitige Ausschlussproblem. Bevor ein kritischer Abschnitt betreten wird, ruft jeder Prozess enter_section(int process) mit seiner eigenen Prozessnummer, 0 oder 1, als Parameter auf. Der Eintritt in den kritischen Abschnitt wird damit so lange verzögert, bis er sicher ist. Sobald ein Prozess den kritischen Abschnitt wieder verlässt ruft er leave_section(int process) mit seiner eigenen Prozessnummer als Parameter auf. Jetzt kann ein anderer Prozess den kritischen Abschnitt betreten, sofern er das möchte. #define FALSE 0 #define TRUE 1 #define N 2 // Anzahl der Prozesse int turn; // Gibt an, wer gerade an der Reihe ist int interested[N]; // Alle Werte mit 0 (FALSE) initialisieren void enter_section(int process) { int other; // Variable für Nummer des anderen Prozesses other = 1 - process; // Der andere Prozess interested[process] = TRUE; // Interesse zeigen turn = other; // Flag setzen while (interested[other] == TRUE && turn == other) ; // Leeranweisung (Aktives Warten) } void leave_section(int process) // Prozess, der den kritischen Abschnitt verlässt { interested[process] = FALSE; // Zeigt den Ausstieg aus dem kritischen Abschnitt an } Wenn nun beispielsweise Prozess 0 enter_section(0) aufruft, bekundet er sein Interesse, indem er interested[0] auf TRUE setzt und lässt Prozess 1 die Gelegenheit, ebenfalls Interesse zu bekunden, indem er die Variable turn auf 1 (die Prozessnummer des anderen Prozesses) setzt. Wenn der Prozess 1 nicht interessiert ist (interested[1]==FALSE oder turn==0), kehrt die Funktion sofort zurück (und der kritische Abschnitt kann betreten werden). Wenn nun der Prozess 1 (etwas später) enter_section(1) aufruft, muss er so lange warten, wie interested[0] == TRUE gilt. Jedoch erst wenn der Prozess 0 leave_section(0) aufruft, um die kritische Region zu verlassen, wird interested[0] auf FALSE gesetzt, und der Prozess 1 kann in den kritischen Abschnitt eintreten. Für den Fall, dass beide Prozesse fast gleichzeitig enter_section(int process) aufrufen und jeweils ihre Prozessnummern in turn speichern, zählt das zuletzt beendete Speichern, d. h., das erste Speicherergebnis wird überschrieben und geht verloren. Da beide Prozesse ihr Interesse angezeigt haben, gilt sowohl interested[0] == TRUE als auch interested[1] == TRUE Konnte nun beispielsweise der Prozess 0 als Letzter in turn speichern, gilt turn == 0. Der Prozess 1 kann unter dieser Bedingung den kritischen Abschnitt nicht betreten, er muss in der Warteschleife warten, bis der andere Prozess interested auf FALSE setzt. Passives Warten Beim passiven Warten wird ein Prozess, der einen kritischen Abschnitt betreten will, „schlafen gelegt“ (beispielsweise indem er in eine Warteschlange eingefügt wird) solange er warten muss. Der Zustand bleibt solange bestehen, bis er in den kritischen Abschnitt eintreten darf. Dann wird er von einem anderen Prozess aufgeweckt. Semaphor Das Konzept der Semaphore wurde 1965 von Edsger W. Dijkstra entwickelt und setzt auf Sperrmechanismen auf. Beim Start des Semaphors wird der Semaphorzähler mit einem ganzzahligen Wert initialisiert, der anzeigt, wie viele Prozesse gleichzeitig eine Ressource nutzen können. Außerdem verwaltet das Semaphor eine Warteschlange für die Prozesse, die am Eingang des kritischen Abschnitts warten müssen. Bei der Nutzung eines Semaphors für gegenseitigen Ausschluss wird der Semaphorzähler einfach mit 1 initialisiert. Für den Eintritt in den kritischen Abschnitt und den Austritt aus diesem stehen zwei Operationen zur Verfügung: Die down-Operation down(s) wird beim Eintritt in den kritischen Abschnitt aufgerufen. Sie prüft zunächst, ob der Wert des Semaphorzählers größer als 0 ist. Trifft dies zu, wird der Wert des Semaphorzählers um 1 reduziert und der Prozess kann eintreten. Wenn der Semaphorzähler gerade auf 0 steht, wird dem ankommenden Prozess der Eintritt verwehrt und er wird in die Warteschlange eingereiht. Die up-Operation up(s) wird beim Verlassen des kritischen Abschnitts aufgerufen. Der Semaphorzähler wird wieder um 1 erhöht, womit ein weiterer Prozess in den kritischen Bereich eintreten kann. Die Verwendung von Semaphoren soll durch eine Analogie veranschaulicht werden: Man nehme an, eine Bibliothek habe 10 Studierzimmer, die jeweils immer nur von einem Studenten benutzt werden können. Ein Rezeptionist „Semaphor“ sorgt nun dafür, dass die „Ressource“ Studierzimmer korrekt belegt wird. Dazu führt er einen Zähler, der über die Anzahl der freien Studierzimmer Buch führt (und mit 10 initialisiert wird). Jedes Mal, wenn ein Student ein Studierzimmer betritt, wird der Zähler um eins reduziert. Wenn der Zähler 0 ist, sind alle Studierzimmer belegt und die ankommenden Studenten müssen in einer Warteschlange eingereiht werden. Die wartenden Studenten dürfen in der Zwischenzeit schlafen. Erst wenn ein Student ein Studierzimmer verlässt, wird der vorderste Student in der Warteschlange „aufgeweckt“ und zu den Studierzimmern eingelassen. Bei der Implementierung von Semaphoren muss jedoch beachtet werden, dass die Operationen down(s) und up(s) selbst kritische Abschnitte aufweisen. Um Race Conditions zu vermeiden, können beispielsweise der TSL- oder der XCHG-Befehl verwendet werden, um die kritischen Abschnitte von down(s) und up(s) zu schützen. Dadurch wird aktives Warten zwar nicht ganz vermieden, die Operationen des Semaphors sind allerdings sehr kurz. Mutex Der Begriff Mutex ist nicht einheitlich definiert. Nach Peter Mandl handelt es sich um ein binäres Semaphor, d. h. um ein Semaphor mit dem Maximalwert N=1. Ein Mutex verfügt praktisch über eine Variable, die nur zwei Zustände, nämlich locked und unlocked, annehmen kann. Es wird also theoretisch nur ein Bit zur Darstellung benötigt. Für das Arbeiten auf einem Mutex stehen die beiden Prozeduren mutex_lock und mutex_unlock zur Verfügung. Einige Autoren weisen durchaus auf Unterschiede zwischen Mutexen und binären Semaphoren hin. Der wesentliche Unterschied dürfte darin bestehen, dass ein Mutex dem aufrufenden Prozess (bzw. Thread) gehört, während mit einem Semaphor kein Besitzer verbunden ist. Wenn beispielsweise bei einem Semaphor der Semaphorzähler 0 (locked) ist, kann ihn ein anderer Prozess (bzw. Thread) erhöhen, auch wenn es sich nicht um den Prozess handelt, der ihn ursprünglich gesperrt hat. Monitor Die Implementierung des wechselseitigen Ausschlusses mit Hilfe von Synchronisationsprimitiven wie Semaphore ist ziemlich fehleranfällig. Deshalb entwickelten 1974 C.A.R. Hoare und 1975 Per Brinch Hansen ein auf höherem Abstraktionsniveau angesiedeltes Synchronisationsmittel, den Monitor. Ein Monitor ist ein Modul (ein abstrakter Datentyp, eine Klasse), in dem die von Prozessen gemeinsam genutzten Daten und ihre Zugriffsprozeduren (oder Methoden) zu einer Einheit zusammengeführt sind. Zugriffsprozeduren mit kritischen Abschnitten auf den Daten werden als Monitor-Operationen speziell gekennzeichnet. Zugriffsprozeduren ohne kritische Abschnitte können vom Modul zusätzlich angeboten werden. Die Funktionalität von Monitoren ist derjenigen von Semaphoren gleichwertig. Monitore sind jedoch für den Programmierer leichter zu überschauen, „da gemeinsam benutzte Daten und Zugriffskontrollen zentral gebündelt an einer Stelle lokalisiert sind und nicht wie im Falle von Semaphoren getrennt über mehrere Prozesse verteilt im Programmcode stehen“. Grundlegende Eigenschaften eines Monitors sind: Kritische Abschnitte, die auf denselben Daten arbeiten, sind Prozeduren eines Monitors. Ein Prozess betritt einen Monitor durch Aufruf einer Prozedur des Monitors. Nur ein Prozess kann zur selben Zeit den Monitor benutzen. Jeder andere Prozess, der den Monitor betritt, wird suspendiert und muss warten, bis der Monitor verfügbar wird. Ein Monitor wird oft als ein Raum angesehen, in dem nur ein Akteur (Prozess) Platz findet. Wollen weitere Akteure in den Monitorraum, so müssen sie warten, bis im Monitorraum Platz frei geworden ist. Wenn ein Prozess eine Monitorprozedur aufruft, prüfen in der Regel die ersten Befehle der Prozedur, ob ein anderer Prozess gerade im Monitor aktiv ist. Wenn kein anderer Prozess den Monitor benutzt, kann er eintreten. Andernfalls wird der aufrufende Prozess „schlafen gelegt“, bis der andere Prozess den Monitor verlassen hat. Der wechselseitige Ausschluss von Monitoreintritten wird nun vom Compiler realisiert, beispielsweise unter Verwendung eines Mutex oder eines binären Semaphors. Der Programmierer muss nicht wissen, wie der Compiler den wechselseitigen Ausschluss regelt. Dadurch ist es sehr viel unwahrscheinlicher, dass etwas schiefgeht. Es reicht zu wissen, dass zwei Prozesse in ihren kritischen Abschnitten nicht gleichzeitig ausgeführt werden dürfen, wenn man alle kritischen Abschnitte in Monitorprozeduren bündelt. Deadlocks Eine Menge von Prozessen befindet sich in einem Deadlock-Zustand, wenn jeder Prozess aus der Menge auf ein Ereignis wartet, das nur ein anderer Prozess aus der Menge auslösen kann. Kein Prozess wird jemals aufwachen, da er jeweils auf Ereignisse wartet, die andere Prozesse auslösen, die jedoch wieder auf Ereignisse von ihm warten. Andrew S. Tanenbaum macht das folgende Beispiel: Zwei Prozesse wollen beide ein Dokument einscannen und anschließend auf eine CD brennen. Prozess belegt fürs Erste den Scanner. Prozess verfährt etwas anders und reserviert sich zunächst den CD-Brenner. Nun versucht Prozess den CD-Brenner ebenfalls zu reservieren, was aber fehlschlägt, weil Prozess diesen noch nicht freigegeben hat. Fatalerweise will jedoch Prozess den Scanner nicht freigeben, solange der CD-Brenner nicht verfügbar ist. Die beiden Prozesse blockieren sich also gegenseitig. Für Deadlocks gibt es auch Beispiele aus dem alltäglichen Leben: Wenn an einer Straßenkreuzung von allen vier Seiten gleichzeitig Autos ankommen und die Vortrittsregel „rechts vor links“ gilt, müssen theoretisch alle vier Autos (endlos) warten, denn jedes Auto wartet darauf, dass das jeweils rechts wartende Auto zuerst fährt. Klassische Problemstellungen Erzeuger-Verbraucher-Problem Das Erzeuger-Verbraucher-Problem (producer-consumer problem, auch bekannt als Problem des begrenzten Puffers) thematisiert die Zugriffsregelung auf eine Datenstruktur mit elementerzeugenden (schreibenden) und elementverbrauchenden (lesenden) Prozessen. So können sich zwei Prozesse einen Puffer mit fester Größe teilen: Einer der Prozesse, der Erzeuger, legt Informationen in den Puffer, der andere, der Verbraucher, nimmt sie heraus. Die Zugriffsregelung soll nun verhindern, dass der Verbraucher auf die Datenstruktur (Puffer) zugreift, wenn diese keine Elemente enthält und der Erzeuger auf die Datenstruktur zugreift, wenn die Aufnahmekapazität bereits ausgeschöpft ist. Eine mögliche Lösung wäre, die Anzahl der Nachrichten in einem Puffer mit einer Variable count zu verfolgen. Die maximale Anzahl der Nachrichten, die ein Puffer aufnehmen kann, sei dabei N. Ist nun count gleich N, wird der Erzeuger schlafen gelegt, andernfalls kann er eine Nachricht hinzufügen und count wird um eins erhöht. Wenn count gleich 0 ist, wird der Verbraucher schlafen gelegt, andernfalls kann er eine Nachricht entfernen und count wird um eins reduziert. Jeder der Prozesse prüft auch, ob der andere aufgeweckt werden sollte, und falls dies zutrifft, tut er dies. Durch diese Implementierung können jedoch Race Conditions entstehen, beispielsweise folgendermaßen: Der Puffer ist leer und in dem Moment, als der Verbraucher count prüft, wird der Prozess durch eine CPU-Scheduling-Entscheidung unterbrochen. Anschließend wird der Erzeuger gestartet, der eine Nachricht in den Puffer legt und count um eins erhöht. Überzeugt davon, dass count davor 0 war und der Verbraucher deshalb schläft, löst er ein wakeup aus um den Erzeuger zu wecken. Das Wakeup-Signal geht dabei verloren. Wenn der Verbraucher jedoch das nächste Mal läuft, geht er davon aus, dass der Wert von count 0 ist, da er diesen Wert zuvor gelesen hatte. Er wird sich deshalb schlafen legen. Der Erzeuger wird nun zunehmen den Puffer füllen und sich dann ebenfalls schlafen legen. Wenn sie nicht gestorben sind, dann schlafen sie noch immer. Das Problem des verlorenen Weckrufs lässt sich beispielsweise durch die Verwendung von Semaphoren lösen. Philosophenproblem Das Philosophenproblem ist ein Synchronisationsproblem, das Edsger W. Dijkstra 1965 veröffentlichte und löste. Es ist nützlich, um Prozesse zu veranschaulichen, die um den exklusiven Zugriff auf eine begrenzte Anzahl Ressourcen wie beispielsweise Ein-/Ausgabegeräte konkurrieren. Bei der Problemstellung müssen genau zwei Betriebsmittel (hier Gabeln) belegt werden, bevor die Arbeit gemacht werden kann. Es sitzen fünf Philosophen (fünf Prozesse/Threads) um einen runden Tisch. Jeder Philosoph hat einen Teller mit Spaghetti vor sich und zwischen zwei Tellern liegt jeweils eine Gabel. Zum Essen braucht ein Philosoph genau zwei Gabeln. Ein Philosoph verbringt seine Zeit entweder mit Denken oder mit Essen. Wenn er Hunger bekommt, greift er nach seiner linken und seiner rechten Gabel (in beliebiger Reihenfolge). Wenn es ihm gelingt, die beiden Gabeln zu ergreifen, isst er für eine gewisse Zeit lang und legt danach die Gabeln wieder hin. Es können also maximal zwei Philosophen gleichzeitig essen. Die Hauptfrage ist: Kann man ein Programm für die Philosophen schreiben, das funktioniert und niemals verklemmt? Eine einfache Lösung besteht darin, die Gabeln als Semaphore zu realisieren und mit 1 zu initialisieren. Da aber nicht zwei Semaphore gleichzeitig aufnehmen können, besteht die Gefahr eines Deadlocks, wenn Philosophen zwischen den beiden Gabelaufnahmen unterbrochen werden. Wenn beispielsweise alle Philosophen quasi gleichzeitig ihre linke Gabel aufnehmen, wird es keinem möglich sein, seine rechte Gabel aufzunehmen. Die Philosophen warten ewig auf die rechte Gabel. Eine mögliche Lösung besteht nun darin, eine Statusvariable stat zu verwenden, die für einen Philosophen drei Zustände verfolgt: Denken (0), Hungrig (1) und Essen (2). Damit ein Philosoph vom hungrigen Status (stat == 1) in den essenden Status (stat == 2) übergehen kann, darf keiner seiner Nachbarn gerade essen. Ein Feld von Semaphoren mit einem Semaphor pro Philosoph ermöglicht es nun, auch Philosophen zu blockieren, falls die benötigten Gabeln in Gebrauch sind. Leser-Schreiber-Problem Beim Leser-Schreiber-Problem geht es um zwei Typen von Prozessen (bzw. Threads), die Leser und die Schreiber. Man geht nun von der Situation aus, dass eine Menge von Lesern und Schreibern einen gemeinsamen kritischen Bereich betreten wollen. Dabei gilt es jedoch, folgende Bedingungen einzuhalten: Im kritischen Abschnitt dürfen sich niemals Leser und Schreiber gleichzeitig aufhalten. Im kritischen Abschnitt dürfen sich beliebig viele Leser gleichzeitig aufhalten. Im kritischen Abschnitt dürfen sich niemals mehrere Schreiber gleichzeitig aufhalten. Andrew S. Tanenbaum nennt dazu ein Beispiel für ein Reservierungssystem einer Fluggesellschaft, in welchem es viele konkurrente Prozesse gibt, die Lese- und Schreibrechte wünschen. Es ist akzeptabel, wenn mehrere Prozesse gleichzeitig die Datenbank auslesen, aber wenn ein Prozess die Datenbank aktualisiert (beschreibt), darf kein anderer Prozess auf die Datenbank zugreifen, nicht einmal zum Lesen. Eine Lösung bietet sich mit Hilfe eines Semaphors db an: Wenn ein Leser Zugriff auf die Datenbank bekommt, führt er ein down auf das Semaphor db aus. Wenn er fertig ist, führt er ein up aus. Solange mindestens ein aktiver Leser existiert, kann kein Schreiber in den kritischen Abschnitt eintreten. Ein Schreiber, der eintreten will, wird also solange stillgelegt, als es Leser im kritischen Abschnitt gibt. Falls jedoch fortlaufend neue Leser in den kritischen Bereich eintreten, kann es sein, dass ein Schreiber niemals Zugriff erhält. Er verhungert. Eine mögliche Lösung für dieses Problem besteht darin, dass ankommende Leser hinter bereits wartende Schreiber gestellt werden. Auf diese Weise braucht der Schreiber nur auf Leser zu warten, die vor ihm da waren, bis er zugreifen kann. Siehe auch Asynchrone Kommunikation Multitasking Multithreading Nachrichtenaustausch/Message Passing Pseudoterminal Sequenzdiagramm Synchrone Kommunikation Time-Sharing Literatur Erich Ehses, Lutz Köhler, Petra Riemer, Horst Stenzel, Frank Victor: Systemprogrammierung in UNIX / Linux. Grundlegende Betriebssystemkonzepte und praxisorientierte Anwendungen. Vieweg+Teubner: Wiesbaden, 2012. Peter Mandl: Grundkurs Betriebssysteme. Architekturen, Betriebsmittelverwaltung, Synchronisation, Prozesskommunikation, Virtualisierung. 4. Auflage, Springer Vieweg: Wiesbaden, 2014. Peter Pacheco: An Introduction to Parallel Programming. Elsevier: Amsterdam, u. a., 2011. Abraham Silberschatz, Peter B. Galvin, Greg Gagne: Operating System Concepts. Eighth Edition, John Wiley & Sons: Hoboken (New Jersey), 2008. Andrew S. Tanenbaum: Moderne Betriebssysteme. 3., aktualisierte Auflage. Pearson Studium, München u. a., 2009, ISBN 978-3-8273-7342-7. Jürgen Wolf, Klaus-Jürgen Wolf: Linux-Unix-Programmierung. Das umfassende Handbuch. 4. Aufl., Rheinwerk Verlag: Bonn, 2016. (ältere, ebenfalls zitierte Ausgabe: Jürgen Wolf: Linux-UNIX-Programmierung. Das umfassende Handbuch. 3., aktualisierte und erweiterte Auflage, Rheinwerk: Bonn, 2009.) Einzelnachweise Betriebssystemtheorie Parallelverarbeitung
Q751436
96.544108
6706
https://de.wikipedia.org/wiki/1696
1696
Ereignisse Politik und Weltgeschehen Russland / Großer Türkenkrieg April: Zar Peter I. von Russland beginnt im Russisch-Türkischen Krieg den Zweiten Asowfeldzug. Entlang den Flüssen Woronesch und Don rückt die russische Armee gegen Asow vor. 28. Juli: Die Russen unter General Alexej Schein erobern im Kampf gegen das Osmanische Reich die Asowsche Festung zurück. 26. August: Im Großen Türkenkrieg trennen sich Reichstruppen unter dem Befehl des Kurfürsten Friedrich August von Sachsen und ein zum Entsatz von Temeschwar herangeführtes osmanisches Heer unter Sultan Mustafa II. in der Schlacht an der Bega nach verlustreichen Kämpfen unentschieden. 20. Oktober: Die russische Duma beschließt auf Wunsch von Zar Peter I. den Aufbau einer Marine. Bereits im Mai werden 23 Galeeren und vier Brander in Dienst gestellt. 6. Dezember: Zar Peter gibt seine Pläne für eine Große Gesandtschaft der Bojarenduma bekannt. Die Bojaren reagieren mit Bestürzung auf die Pläne des Zaren. Pfälzischer Erbfolgekrieg 29. August: Im Pfälzischen Erbfolgekrieg wird ein Separatfrieden zwischen Savoyen und Frankreich geschlossen, nachdem Savoyen die Augsburger Allianz verlassen hat. Frankreich gibt die eroberte Stadt Pinerolo zurück. Die Vermählung der Tochter von Viktor Amadeus I., Maria Adelaide von Savoyen, mit dem Dauphin von Frankreich, Louis de Bourbon soll den Vertrag von Turin festigen. 7. Oktober: Frankreich und das Herzogtum Savoyen auf der einen Seite, sowie Spanien und die österreichischen Habsburgermonarchie auf der anderen Seite schließen gegen Ende des Pfälzischen Erbfolgekrieges den Vertrag von Vigevano, mit dem Italien neutralisiert wird. Wilhelm III. von Oranien bezeichnet den Vertrag als „Verrat von Vigevano“. Eugen von Savoyen zieht seine Truppen aus Oberitalien ab, die damit für den Großen Türkenkrieg frei werden. Weitere Ereignisse in Europa 17. Juni: Der polnische König Jan III. Sobieski stirbt. Um seine Nachfolge bewerben sich 18 Kandidaten, unter ihnen Jans Sohn Jakob Louis Heinrich Sobieski, der von Österreich unterstützt wird, der von Frankreich unterstützte François Louis de Bourbon, prince de Conti, und der sächsische Kurfürst Friedrich August I., der Starke. Asien 13. Juni: Der chinesische Kaiser Kangxi besiegt die Dschungaren unter Khungtaidschi Galdan bei Dsuunmod. Wirtschaft 2. Mai: Mit der systematischen Einziehung der beschnittenen Münzen aus der Kipper- und Wipperzeit löst das englische Parlament die Englische Geldkrise aus. Kultur 25. Februar: Das Trauerspiel Mahumet II. von Reinhard Keiser hat seine Uraufführung am Theater am Gänsemarkt in Hamburg. Vermutlich wurde der osmanische Sultan Mehmed II. von Keiser als Vorbild genommen. 11. Juli: Kurfürst Friedrich III. von Brandenburg ruft die kurfürstliche Academie der Mahler-, Bildhauer- und Architecten-Kunst ins Leben, die heutige Akademie der Künste in Berlin. 27. Dezember: Die Uraufführung der Oper Il trionfo di Camilla regina de Volsci von Giovanni Bononcini erfolgt am Teatro San Bartolomeo in Neapel. Die Universitätsbibliothek in Halle (Saale), die heutige Universitäts- und Landesbibliothek Sachsen-Anhalt, wird gegründet. Gesellschaft Das Dobbertiner Einschreibebuch wird eröffnet. Religion Auf der Nordseeinsel Spiekeroog wird eine Kirche erbaut. Heute ist die 'Alte Inselkirche' die älteste erhaltene Kirche aller Ostfriesischen Inseln und das Wahrzeichen von Spiekeroog. Die während der Wiener Türkenbelagerung 1683 zerstörte Wallfahrtskirche Maria Lanzendorf wird neu errichtet. Geboren Erstes Halbjahr 6. Januar: Friedrich Karl von Hardenberg, deutscher Diplomat und Gartenarchitekt († 1763) 6. Januar: Johann Georg Oldekop, deutscher evangelischer Geistlicher († 1758) 8. Januar: Étienne Parrocel, französischer Maler († 1775) 14. Januar: Emanuel Christian Löber, deutscher Mediziner († 1763) 25. Januar: Jakob Friedrich Duttenhofer, Bürgermeister in Nürtingen, Landtagsabgeordneter († 1769) 4. Februar: Marco Foscarini, 117. Doge von Venedig († 1763) 10. Februar: Johann Arnold Bertram, deutscher Hüttenmeister († 1762) 14. Februar: Gottlieb Jenner, Schweizer Jurist und Politiker († 1774) 5. März: Giovanni Battista Tiepolo, italienischer Maler des Spätbarock und Rokoko († 1770) 6. März: Joseph Anton Feuchtmayer, bedeutender Stuckateur und Bildhauer des Rokoko († 1770) 10. März: Ernst Christoph Arnoldi, deutscher Rechtswissenschaftler († 1744) 13. März: Louis François Armand de Vignerot du Plessis, Marschall von Frankreich († 1788) 13. März: Johann Tilemann, deutscher Hochschullehrer († 1773) 17. März: Ludwig Batthyány, ungarischer Hofkanzler und Palatin († 1765) 17. März: Johann Christian Dotzauer, deutscher Orgelbauer († 1773) 27. März: Antoine Court, französischer Prediger und Glaubenszeuge († 1760) 2. April (getauft): Francesca Cuzzoni, italienische Opernsängerin und Händel-Interpretin († 1778) 21. April: Francesco de Mura, italienischer Maler († 1782) 22. April: Antoinette Amalie, Herzogin zu Braunschweig und Lüneburg und Fürstin von Braunschweig-Wolfenbüttel († 1762) 26. April: Michał Fryderyk Czartoryski, Großkanzler von Litauen († 1775) 6. Mai: Johann Andreas von Franken-Siersdorf, Generalvikar in Köln († 1754) 7. Mai: Eleonore Wilhelmine von Anhalt-Köthen, Prinzessin von Sachsen-Merseburg und Herzogin von Sachsen-Weimar († 1726) 9. Mai: Peter Heel, deutscher Bildhauer († 1767) 16. Mai: Franziska Christine von Pfalz-Sulzbach, Fürstäbtissin des Stiftes Essen († 1776) 31. Mai: Mattia Bortoloni, italienischer Maler († 1750) 5. Juni: Franciscus Volckland, deutscher Orgelbauer († 1779) Zweites Halbjahr 2. August: Mahmud I., Sultan des Osmanischen Reichs († 1754) 4. August: Christian August, Herzog von Schleswig-Holstein-Sonderburg-Augustenburg († 1754) 4. August: Maria Anna von Bayern, bayerische Prinzessin († 1750) 16. August: Marc-Pierre d’Argenson, französischer Adeliger und Minister († 1764) 20. August: Josias I., Graf von Waldeck-Bergheim († 1763) 26. August: Johann Zacharias Richter, Leipziger Rats- und Handelsherr († 1764) 31. August: Johann Paul Kunzen, deutscher Organist und Komponist († 1757) 13. September: Johann Caspar Bagnato, Baumeister und Baudirektor der Deutschordensballei Schwaben-Elsass-Burgund († 1757) 22. September: Johann Jacob Bindrim, deutscher Bildhauer († um 1775) 27. September: Alfonso Maria de Liguori, italienischer Jurist, Bischof und Ordensgründer, der heiliggesprochen und zum Kirchenlehrer erhoben wurde († 1787) 17. Oktober: August III., König von Polen und Kurfürst von Sachsen († 1763) 18. Oktober: Gian Pietro Riva, Schweizer Schulleiter und Übersetzer († 1785) 21. Oktober: James Fitz-James Stuart, 2. Duke of Berwick, jakobitischer und spanischer Adliger († 1738) 28. Oktober: Paolo Fontana, italienischer Architekt († 1765) 28. Oktober: Moritz Graf von Sachsen („Marschall von Sachsen“), französischer Feldherr († 1750) 15. November: Albrecht Friedrich von Erlach, Schultheiss von Bern († 1788) 25. November: Georg von Pfronten-Kreuzegg, bayerischer Kapuziner in Kreuzegg (Pfarrei Pfronten) († 1762) 2. Dezember: August Wilhelm Reinhart, deutscher evangelischer Theologe († 1770) 21. Dezember: Johann Thomas von Quentel, Priester und Domherr in Köln († 1777) 22. Dezember: James Oglethorpe, britischer General und Philanthrop sowie Gründer der Kolonie Georgia († 1785) 31. Dezember: Martin Spangberg, dänischer Entdecker in russischen Diensten († 1761) Genaues Geburtsdatum unbekannt Chajim b. Mose Attar, jüdischer Gelehrter und Kabbalist († 1743) David Gregory, englischer Historiker († 1767) Anna Maria dal Violin, italienische Violinistin und Geigenpädagogin († 1782) Gestorben Todesdatum gesichert 1. Februar: Johann Peter von Burmann, Politiker und Weihbischof in Köln (* 1642) 8. Februar: Iwan V., Zar von Russland (* 1666) 16. Februar: Friedrich von Dönhoff, kurbrandenburgisch-preußischer Generalleutnant (* 1639) 20. Februar: Ambrosius Ferrethi, kaiserlicher Hof-Steinmetzmeister (* 1628) 24. Februar: Anna Margaretha Schmidt, Opfer der Hexenverfolgung in Olpe (* 1684) 25. März: Heinrich Casimir von Nassau-Dietz, Reichsfürst und Statthalter von Friesland, Groningen und Drenthe (* 1657) 17. April: Marie de Rabutin-Chantal, Marquise de Sévigné, französische Adelige und Briefautorin (* 1626) 10. Mai: Jean de La Bruyère, französischer Schriftsteller (* 1645) 16. Mai: Maria Anna von Österreich, Königin, später Regentin von Spanien (* 1634) 23. Mai: Ludwig Ludwig, Abt des Zisterzienserklosters in Ebrach (* 1640) 24. Mai: Albertine Agnes von Oranien-Nassau, Fürstin von Nassau-Diez (* 1634) 31. Mai: Peter Müller, deutscher Rechtswissenschaftler (* 1640) 17. Juni: Jan III. Sobieski, König von Polen und Großfürst von Litauen, gilt als Retter von Wien bei der Zweiten Türkenbelagerung (* 1629) 25. Juli: Clamor Heinrich Abel, deutscher Komponist, Violinist und Organist (* 1634) 28. Juli: Charles Colbert, französischer Diplomat und Außenminister (* 1629) 2. August: Robert Campbell of Glenlyon, schottischer Adliger und Militär (* 1630) 28. August: Hans Adam von Schöning, kurbrandenburgischer und kursächsischer Feldmarschall (* 1641) 7. September: Paul Philipp Röber, deutscher lutherischer Theologe (* 1632) 9. September: Eleonore von Sachsen-Eisenach, Markgräfin von Brandenburg-Ansbach und Kurfürstin von Sachsen (* 1662) 16. September: Andreas Herold, deutscher Stück- und Glockengießer (* 1623) 16. September: Lambert Pietkin, im Hochstift Lüttich wirkender Komponist und Organist (* 1613) 25. September: Joachim Kunkler, Bürgermeister von St. Gallen (* 1612) 4. Oktober: Artus Gouffier de Roannez, Gouverneur des Poitou und Freund von Blaise Pascal (* 1627) 27. Oktober: Johann Gabriel Löbel, deutscher Glashüttenbesitzer und Hammerherr (* 1635) 1. November: Bernhard Rosa, Abt des Zisterzienserklosters Grüssau und bedeutender Reformer seines Ordens (* 1624) 4. Dezember: Meishō, 109. Kaiserin von Japan (* 1624) 10. Dezember: Johann Christoph Arnschwanger, deutscher Kirchenliederdichter (* 1625) 13. Dezember: Georg Matthäus Vischer, Topograph und Geistlicher (* 1628) 27. Dezember: Johann Anton Kirchberger, Schultheiss von Bern (* 1623) 27. Dezember: Jacob Lüdecke, deutscher Jurist und Amtmann (* 1625) 27. Dezember: Ambrosius Rhodius, deutscher Astrologe und Mediziner (* 1605) 31. Dezember: Samuel Annesley, englischer Pastor (* 1620) Genaues Todesdatum unbekannt Wacław Potocki, polnischer Schriftsteller (* 1621) Weblinks
Q7699
162.249888
23389
https://de.wikipedia.org/wiki/Evolutionsbiologie
Evolutionsbiologie
Die Evolutionsbiologie ist ein Teilbereich der Biowissenschaften. Sie untersucht das Evolutionsgeschehen im Laufe der Erdgeschichte bis heute sowie die Evolutionsfaktoren. Zentrale Problemstellungen moderner Evolutionsbiologie sind die Rekonstruktion der stammesgeschichtlichen Abläufe der Organismen, das Zusammenspiel der Evolutionsfaktoren untereinander und mit der Umwelt sowie die Evolution der Genomsysteme, die in enger Wechselbeziehung zu den jeweiligen Trägerorganismen stehen. Die Evolutionsbiologie ist eng mit anderen Wissenschaftsdisziplinen verknüpft, z. B. Geologie, Paläontologie, Ökologie, Biogeographie, Anatomie/Morphologie, Physiologie, Biochemie, Verhaltensbiologie, Molekularbiologie und Genetik. Evolutionsbiologie als wissenschaftliches Theoriensystem Die erstmalige textliche Erwähnung der Bezeichnung „Evolutionsbiologie“ findet sich wohl 1942 auf Englisch als evolutionary biology in Julian Huxleys bekannt gewordenem Buch Evolution: The Modern Synthesis. Im deutschen Sprachraum hat der Begriff Evolutionsbiologie erst in den 1980er Jahren voll Einzug gehalten, zuvor sprach man eher nur von der Evolution oder Evolutionstheorie, ehemals auch von der Abstammungslehre oder Deszendenztheorie. Während Charles Darwin die Evolution, d. h. das Andersartigwerden der zu variablen Populationen zusammengeschlossenen Organismen im Verlaufe zahlreicher Generationenabfolgen, noch als Hypothese betrachtete, war für den 14 Jahre jüngeren Wallace die „Deszendenz mit Modifikation“ bereits eine Tatsache. Am Faktum der biologischen (organismischen) Evolution hat seit August Weismann (1834–1914) kein sachkundiger Biologe mehr gezweifelt, wobei Evolutionsvorgänge im Mikro- wie im Makromaßstab realhistorische Naturvorgänge darstellen. Die grundlegenden Prinzipien können teilweise experimentell und analytisch überprüft und vielfach mit altersdatierten Fossilabfolgen (einigermaßen korrekt, nie vollständig) rekonstruiert werden. Früher sprachen Biologen von „der Evolutionstheorie“; seit der Etablierung der modernen Evolutionsbiologie ist aber deutlich, dass es keine einheitliche und alle Teilaspekte der Evolution erklärende „Generaltheorie“ gibt, sondern dass unterschiedliche Ansätze und Forschungszweige gemeinsam die wissenschaftlichen Bausteine für die komplexen Einzelprozesse erarbeiten müssen. Die Evolutionsbiologie ist somit ein vielgestaltiges Theoriensystem, das Konzepte, Erkenntnisse und Methoden von der Paläontologie bis zur Molekularbiologie integriert. Mit dem Problem des Lebensbeginns auf der Erde beschäftigt sich die chemische Evolution. Die biologische Evolution kann zu wesentlichen Teilen als eine „Systemeigenschaft von Populationen“ gesehen werden, da mit jeder Nachkommenschaft neue Variabilität entsteht, wobei die genetisch festgelegten Informationen von denjenigen Individuen weiter gegeben werden, die sich am erfolgreichsten fortpflanzen. Häufig ist eine gute Anpassung an die jeweiligen Umweltbedingungen im weitesten Sinne eine Voraussetzung, doch gibt es auch erhebliche Zufallskomponenten bei der differenziellen Genweitergaben, speziell bei kleinen Populationsgrößen. Vielfach wird in der Analyse und Diskussion zwischen den Genotypen (dem „Erbbild“) eines Organismus und den Phänotypen (dem „Erscheinungsbild“) eines Organismus unterschieden. Für viele Fragestellungen, auch z. B. für die Auswirkungen evolutionsbiologischer Prozesse auf medizinische Befunde (im Rahmen einer Evolutionsmedizin), wird das genomische System, seine Dynamik und Evolution selber untersucht. Evolutionsbiologische Analysemethoden umfassen somit ein großes Spektrum naturwissenschaftlicher Verfahrenstechniken. Hierzu können im Einzelfall physikalische Altersdatierungen zählen, chemische Analysen organischer Reste in den Gesteinen, zell-, entwicklungs- und molekularbiologische Studien zum Verständnis der Entstehung der vielfältigen Tier- und Pflanzengestalten, DNA-Sequenzanalysen und Stammbaum-Rekonstruktionen zum Erkennen der Verwandtschaftsverhältnisse und der Abzweigungen verschiedener Stammeslinien voneinander (z. B. Menschen- und Schimpansen-Linie) oder auch geologisch-tektonische sowie paläoklimatologische Untersuchungen zur Rekonstruktion früherer Umwelten der damaligen Organismen. Kurze Geschichte der Evolutionsbiologie Die moderne Evolutionsbiologie ist eine integrative Wissenschaftsdisziplin, die sich in den Jahren 1940 bis 1950 unter anderem durch Arbeiten des britischen Zoologen Julian Huxley (1887–1975), des russisch-amerikanischen Insektenforschers und Genetikers Theodosius Dobzhansky (1900–1975) und des deutsch-amerikanischen Zoologen und Systematikers Ernst Mayr (1904–2005) entwickelt hat. Im Jahre 1946 wurde in den USA die Society for the Study of Evolution gegründet, wobei als Gründungsherausgeber des von der Gesellschaft publizierten Fachjournals Evolution E. Mayr amtierte. In Europa kam es erst 1987 durch den damals in Basel lehrenden US-amerikanischen Evolutionsbiologen Stephen C. Stearns zur Gründung einer „European Society for Evolutionary Biology“ (ESEB). Die starke Verzögerung in der modernen evolutionsbiologischen Forschung auf Kontinentaleuropa ist vermutlich durch die Ereignisse des Zweiten Weltkriegs und seine Folgen mit verursacht worden. Den Ursprung der wissenschaftlichen Evolutionsbiologie kann man im Hauptwerk Jean-Baptiste de Lamarcks (1744–1829) sehen, der in seinem Buch Philosophie Zoologique (1809) erstmals dargelegt hatte, dass die Organismen nicht konstante Schöpfungen sind, sondern sich aus Urformen entwickelt haben (Konzept der Arten-Transformation). Das Buch wurde allerdings, da nicht leicht lesbar geschrieben, wenig populär und wird heute vielfach nur noch mit dem sogenannten Lamarckismus in Verbindung gebracht, obwohl dies nur ein Teilaspekt im Werk war und auch spätere Forscher des 19. Jahrhunderts, namentlich Charles Darwin, im Prinzip Anhänger der entsprechenden Theorie waren, sie allerdings um weitere zentrale Komponenten erweiterten. Mit der 1858 vorgestellten Theorie von Charles Darwin (1809–1882) und Alfred Russel Wallace (1823–1913) (Hauptwerke: On the Origin of Species, 1859; Darwinism, 1889) konnte erstmals Mechanismen zur Artentransformation, von Darwin als „Deszendenz mit Modifikation“ bezeichnet, formuliert werden. Zentral waren darin das Prinzip der Evolution durch Variation und natürliche Selektion. Auch Spezialaspekte, wie die sexuelle Selektion, hat er später (1871) integriert. Die klassische Abstammungslehre oder Deszendenztheorie wurde von August Weismann und Alfred Russel Wallace zu einer „Neo-Darwin’schen Theorie“ erweitert, welche als Hauptursache der biologischen Variabilität bei Tieren und Pflanzen die zweigeschlechtliche Fortpflanzung (sexuelle Reproduktion) annahm, die eine Neukombination von Erbanlagen ermöglichte und die gerichtete natürliche Selektion als zentrale Antriebskraft des Artenwandels ansah. Mit der Entwicklung der Synthetischen Theorie der biologischen Evolution durch Dobzhansky, Mayr, Huxley und andere Biologen konnte eine Zusammenführung populationsgenetischer Studien mit den Erkenntnissen aus der Paläontologie, vergleichenden Anatomie und Biogeographie vollzogen werden (1937 bis ca. 1950). Diese auf sechs Haupt-Thesen basierende Theorie wurde ab dem Jahr 2000 zur „Erweiterten Synthetischen Theorie der biologischen Evolution (expanded synthesis)“ ausgebaut, wobei auch die von Konstantin Mereschkowski entwickelte Theorie der Symbiogenese integriert wurde. Die moderne molekularphylogenetisch ausgerichtete Evolutionsbiologie ging als eigenständiger Zweig der Biowissenschaften aus der „Erweiterten Synthetischen Theorie“ hervor und ist heute als alle biologischen Teilgebiete vereinigende Generaldisziplin von theoretischer und praktischer Bedeutung (Agrikultur, Medizin usw.). Sie erlaubt es mittlerweile sogar, die Entwicklung der Genome, zum Beispiel die Einbindung parasitischer DNA in Form der Transposons in das Genom höherer Organismen im Laufe der Erdgeschichte zu rekonstruieren und mittels des Prinzips der molekularen Uhr ungefähr zu datieren. Historische Versuche modifizierender Erklärungsansätze Für Einzelaspekte des Evolutionsgeschehens wurden, ohne das Prinzip einer Evolution grundsätzlich in Frage zu stellen, verschiedentlich modifizierte Hypothesen und Modelle entwickelt, die vorübergehend oder regional eine starke Anhängerschaft hatten. So wurde in der stalinistisch geführten Sowjetunion zur Zeit des Deutsch-Sowjetischen Kriegs bis Anfang der 1960er Jahre eine spezielle Theorie der Weitergabe erworbener Eigenschaften, der Lyssenkoismus, in Anlehnung an Iwan Mitschurin (1855–1935) und Trofim Lyssenko (1898–1976) als offizielle Staatsdoktrin gelehrt. Ihre Lehre wurde insbesondere für die Ertragssteigerung in der Landwirtschaft propagiert und bekämpfte zugleich die im Westen gelehrte Evolutionstheorie. Für die Formbildung komplexer (primär tierischer) Lebewesen wurden teilweise spezielle „Vitalfaktoren“ (so bei Hans Driesch, 1867–1941) oder aber die Wirkung einer „Innerlichkeit“ (bei Adolf Portmann, 1897–1982) propagiert. Am Senckenberg Forschungsinstitut wurden in den 1960/70er Jahre Ideen formuliert, welche die Umgestaltung von Tierformen in der Erdgeschichte auf Basis einer Hydroskelett-Theorie und eines stark modifizierten Konzepts zur evolutiven Anpassung zu erklären versuchten. Die Protagonisten dieser von Wolfgang Gutmann (1935–1997) begründeten Hypothese sprachen in der Folge von der „Frankfurter Evolutionstheorie“, interpretierten Lebewesen mechanistisch als „hydraulische Konstruktionen“ und postulierten hypothetische Gallertoide als Ausgangsformen aller Gestaltentwicklungen. Skepsis gegenüber der Evolutionsbiologie Die wissenschaftlich fundierte Evolutionsbiologie, die sich seit rund 200 Jahren stets weiter entwickelt, befindet sich immer wieder in kritischer Auseinandersetzung. Manche Kritik ist religiös motiviert. Teilweise werden Alternativ-„Erklärungen“ für den Evolutionsablauf angeboten. Oft wird auch das Phänomen der Evolution gänzlich negiert. In Diskussionen beobachtet man dabei, dass Konzepte und Termini anders gebraucht werden als in der Wissenschaft, oder dass die Relevanz und Signifikanz wissenschaftlicher Empirie und Experimentalforschung nicht kritisch gewürdigt oder aber anders interpretiert werden. Vielfach begegnet man auch (möglicherweise unbewussten) nicht-wissenschaftlichen Argumentationsweisen. Manchmal werden auch Fakten falsch verstanden oder aufgrund eines inhärenten anderen Weltbildes anders rezipiert, interpretiert und gewertet, beispielsweise wenn die Ähnlichkeit gewisser Fossilfunde (z. B. Laubblätter) mit manchen heutigen Arten als „Beweis“ für eine Nicht-Evolution gesehen wird. Zuweilen kann sich Skepsis auch aus einer von Wissenschaftlerseite geäußerten Feststellung entwickeln, wonach die Wissenschaft manche Evolutionsprozesse nicht oder noch nicht erklären kann oder auch, dass gewisse Erkenntnislücken stets bleiben werden, beispielsweise wegen lückenhafter Fossilberichte. Als Alternativkonzept wird dann vom Diskussionspartner vielfach ein göttlicher Schöpfungsakt ins Spiel gebracht, durch den entweder die Anfangsbedingungen (Entstehung von Arten) oder aber die gesamte Evolution (so eine solche zugestanden wird) vorgegeben und gelenkt würden. Hierbei werden auch Schöpfungsmythen als argumentative Grundlage angeführt und als wahr (und nicht als bildhafte Sprache eines früheren Kulturkreises) und als geeignet zur Erklärung realer Abläufe interpretiert. Verschiedentlich werden von religiöser Seite „Kompromisse“ präsentiert, etwa durch die Postulierung eines Grundtypen-Modells, in welchem sich aber zahlreiche wissenschaftliche (auch konzeptionelle und terminologische) Missverständnisse und Mehrdeutigkeiten verbergen. Die Intelligent-Design-Theorien gehen von „perfekt erschaffenen Lebewesen“ aus, missachten aber unter anderem die zahlreichen „Design-Fehler“ (genetische Defekte, Aberrationen usw.) lebender Organismen, welche Nebeneffekte der (molekularen) Evolutionsprozesse sind. Ein weiterer Versuch ist der Third Way of Evolution, der Erklärungen über Evolutionsprozesse jenseits von Kreationismus, aber auch von den Erkenntnissen der Evolutionsbiologie anzubieten versucht. Siehe auch Evolutionäre Entwicklungsbiologie Weblinks AG EvoBio – Evolution in Biologie, Kultur und Gesellschaft European Society for Evolutionary Biology (eseb) Gesellschaft für Biologische Systematik (GfBS) US National Center for Science Education (NCSE) Einzelnachweise Evolution Biologische Disziplin
Q840400
568.176539
130576
https://de.wikipedia.org/wiki/Perle
Perle
Eine Perle ist ein fester, oft runder Fremdkörper aus Perlmutt, der in bestimmten perlbildenden Muscheln, seltener auch Schnecken heranwächst. Kulturelle Bedeutung In einem Grab im Emirat Umm al-Qaiwain (Vereinigte Arabische Emirate (VAE)) haben französische Archäologen 2012 eine Perle entdeckt, deren Entstehungszeit sie auf zwischen 5547 und 5235 v. Chr. datieren konnten. Wenige Jahre später fanden Archäologen in den VAE eine Perle, deren Entstehung nach Radiokohlenstoffdatierung auf den Zeitraum zwischen 5800 und 5600 v. Chr. zurückgeht. Die Funde zeigen, dass die Bevölkerung der Arabischen Halbinsel bereits im Frühneolithikum nach Muscheln tauchte. Erste Überlieferungen, in denen Perlen erwähnt werden, finden sich im chinesischen Geschichtsbuch von Shu King („… erhielt König Yu Perlen als Tribut vom Fluss Hwai …“). Im gesamten Altertum waren Perlen hoch geschätzt. In der Perlensymbolik wird die Perle in der Regel mit Jungfräulichkeit verbunden. Für die kurdischen Mystiker ist die Perle wie „ein Embryo, das am Grund seines Muscheluterus schlummert“. In der christlichen Ikonographie gilt die Perle ebenfalls als Symbol der jungfräulichen Empfängnis Marias. Auch bei Griechen und Römern waren Perlen sehr begehrt. Die Römer übernahmen den griechischen Namen margarita (Plural margaritae) für Perle auch als Bezeichnung für die Geliebte, ein Begriff, der sich bis heute im Namen Margarete erhalten hat. Eine ganze Reihe von Muscheln erhielt später den Namenszusatz margaritifera, deutsch „perlentragend“. In vielen Kulturen hatte und hat die Perle einen tiefen Symbolcharakter. So sind Perlen in China z. B. das Symbol für Reichtum, Weisheit und Würde; in Japan bedeuten sie Glück, in Indien Kinderreichtum. In vielen Kulturen werden Frauen oder bestimmte Körperpartien wie z. B. Zähne oft mit Perlen verglichen. Die Perle galt darüber hinaus sowohl als Aphrodisiakum wie auch als Heilmittel für Melancholie und Wahnsinn. Sie ist auch Symbol für Tränen. Im Mittelalter erhielt sie zudem einen sakralen Charakter. Perlen galten als Zeichen der Liebe zu Gott. So finden sie auch im Neuen Testament der Bibel Erwähnung: Und die zwölf Tore waren zwölf Perlen, je eines der Tore war aus einer Perle, und die Straße der Stadt reines Gold, wie durchsichtiges Glas (Offenbarung des Johannes). Sie waren nicht zuletzt durch die Erwähnung in der heiligen Schrift unverzichtbarer Teil der Machtdemonstration christlicher Herrscher, die sie vorwiegend im Sinne der Zahlensymbolik einsetzten. Die Margaritomantik befasst sich mit der Weissagung mit Hilfe von Perlen. Unter arabischem Einfluss begann ab dem 8. Jahrhundert die Verwendung als Heilmittel. In Europa wurden Flussperlen zur Herstellung von Perlmilch verarbeitet, und das „aqua perlata“ des Mittelalters bestand aus Perlenpulver, Essig oder Zitronensaft, Zucker und Kräutern. Bis zur Mitte des 19. Jahrhunderts nahmen Perlen einen festen Platz in den Lehrbüchern der Pharmazie ein. Entstehung Perlen bilden sich in der Natur unter nicht genau geklärten Umständen. Die frühere Vermutung, ein in die Muschel eingedrungenes Sandkorn sei der Auslöser zur Bildung einer Perle, wird heute von der Wissenschaft mehrheitlich verworfen. Man geht davon aus, dass ein Sandkorn einem dem Leben am Boden angepassten Tier wie der Muschel keinerlei Schwierigkeiten bereitet. Henry A. Hänni, Professor für Gemmologie an der Universität Basel, wie auch Jochen Schlüter, Leiter des Mineralogischen Museums der Universität Hamburg, gehen davon aus, dass für die Perlenbildung Epithelzellen der Muschel verantwortlich sind, die durch Einbohrung von Parasiten oder durch andere Verletzungen in das tiefere Mantelgewebe der Muschel verschleppt werden, wo sie eine Zyste bilden. Calciumcarbonat, das Baumaterial der Schale, wird dort abgeschieden und lagert sich Schicht um Schicht ab, wodurch schließlich eine Perle entsteht. Zusammensetzung Die Perle hat eine kristalline Struktur und besteht wie die Muschelschale zu 80–92 % aus Calciumcarbonat (CaCO3) in seiner primären Form, dem Aragonit. Sekundär ist Calciumcarbonat als Calcit vertreten, hinzu kommt ein kleiner Anteil an Wasser. Die Kristalle wachsen in Form von Plättchen, sind schichtweise geordnet und werden von einer organischen Mischung aus Proteinen und Conchin (bzw. Conchiolin) gewissermaßen lose miteinander „verkittet“. Dadurch entsteht eine hohe Bruch- und Stoßfestigkeit. Die Bestandteile von Perlmutt und die Bestandteile der Perlen sind identisch, jedoch unterscheiden sich die Mengenanteile. Perlmutt enthält z. B. etwas mehr Wasser. Perlen sind härter bzw. widerstandsfähiger als Perlmutt. Ihre Mohs'sche Härte beträgt 3,5–4. Sie wachsen in Schichten, die bei einer durchgesägten Perle ähnlich wie Baumringe zu sehen sind. Der Glanz, „Lüster“ genannt, entsteht durch die Lichtreflexion und -brechung an den Kristallgrenzen des Calciumcarbonats und an den dort eingelagerten Wassermolekülen und wird umso feiner, je dünner und zahlreicher die Schichten sind (Interferenz). Durch das „Austrocknen“ und eine Veränderung der organischen Bestandteile ergibt sich die Alterung der Perlen. Die Farbe ist abhängig von der Art der Perlmuschel, ihrem Lebensraum und der Wassertemperatur. Sie reicht von Weiß über Gelb und Rosa bis Grau. Perlen können, nachdem sie aus der Muschel genommen wurden, in nahezu allen Farben gefärbt werden. Sie vertragen jedoch weder Hitze noch Laugen und Säuren. Bezeichnungen Eine international verbindliche Nomenklatur ist für den korrekten Perlenhandel Voraussetzung. Die jeweiligen Kriterien müssen im Handel angegeben werden und sind verbindlich für einen seriösen Einkauf und Verkauf. Unterschieden wird zwischen natürlichen Perlen, Zuchtperlen mit implantiertem Perlmuttkern oder einem Implantat aus Epithel, Imitationen von Natur- oder Zuchtperlen, Perlen aus Kompositionsmaterial, wie zum Beispiel die Mallorcaperlen. Auch Behandlungen von Perlen müssen angegeben werden. Als „echte Perle“ oder „natürliche Perle“ dürfen nur die Perlen bezeichnet werden, die ohne menschliches Eingreifen in Gewässern gewachsen sind. Sie werden auch als „Orient-Perlen“ bezeichnet, wenn sie, wie bis ins 19. Jahrhundert insbesondere im Persischen Golf, von Perlentauchern gefischt wurden. Parallel dazu waren über Jahrhunderte die Flussperlen aus mitteleuropäischen Gebirgsbächen von größter Bedeutung. Ein Beispiel sind die perlenbestickten Gewänder in der Schatzkammer von Wien. „Kulturperle“ oder „Zuchtperle“ ist der handelsübliche Name für eine durch Implantat von Menschenhand in dem Muschelkörper gewachsene Perle. Sie wird auf Muschelbänken gezüchtet und während ihrer zwei- bis dreijährigen Wachstumsphase intensiv betreut. Unregelmäßig geformte Perlen nennt man „Barockperlen“. Als „Biwa-Perle“ werden japanische Süßwasserperlen bezeichnet, die im Biwa-See gezüchtet wurden. Sie haben einen weichen Epithelkern und deshalb ausschließlich barocke Formen. Heute werden Zuchtperlen mit Epithelkern in vielen anderen Gewässern gezüchtet. Der Biwa-See ist heute durch Industrieschadstoffe so belastet, dass Zuchtfarmen kaum mehr gute Erträge bringen. „Button-Perle“ bezeichnet eine Perle mit ebenmäßiger Oberfläche, die kreisrund, aber flachkugelig, das heißt elliptisch gewachsen ist. Sie kann natürlich vorkommen oder durch Implantat eines entsprechend geformten festen Kerns gezüchtet werden. „Mabé-Perlen“ sind Halb-Perlen in vielfältigen Formen mit einer oft barocken Oberfläche. Sie können natürlich wachsen oder durch entsprechende Implantate als Halbkugeln, Herzen, Quadrate etc. gezüchtet werden. „Keshi-Perlen“ („Mohnsamenperlen“) sind kleine Perlen, die sich ungeplant bilden können, wenn eine viel größere Perle mit Kern in einer Akoya-Muschel heranwächst. Kriterien zur Beurteilung Bei einem Schmuckgegenstand gibt es neben objektiven Kriterien auch solche, die subjektiver Natur oder einer Mode unterworfen sind. Bei Perlen werden als Kriterien Form, Größe, Lüster, Oberflächenqualität, Farbe, Typ der Perle, Stärke des Perlmutts und Bohrung genannt. Oberflächenqualität und Lüster sind dabei von zentraler Bedeutung, da sie für die Schönheit der Perle ausschlaggebend und bei einem Perlenstrang Größe und Form meist weniger problematisch sind. Zur Beurteilung von Farbe und Lüster sollte man sie bei Tageslicht betrachten, niemals bei Kunstlicht; auch sollte man sie auf eine neutrale graue Unterlage legen, niemals auf eine weiße oder schwarze. Form Als Hauptformen gelten: rund bzw. semi-rund (kugelförmig), tropfenförmig, button, oval, geringt, barock/semi-barock (abstrakt und ungleichmäßig). Die Form einer Perle ist vor allem als eine Modebeurteilung zuzuordnen. Am begehrtesten sind die perfekten Kugeln, wobei fast kugelförmige Perlen leichter und preiswerter zu bekommen sind und man den Unterschied nur bei genauer Betrachtung sieht. Größe Größenangaben gelten immer für den mittleren Durchmesser der Perle, nicht für deren Länge. Das Gewicht wird normalerweise in Karat, Korn (im englischen: Grain) (1 Grain = 0,06479891 Gramm) oder Momme (alte japanische Gewichtsbezeichnung, 1 Momme = 3,75 Gramm) angegeben. Zuchtperlen werden meist in Karat oder Momme gewogen, während Naturperlengewichte in Korn angegeben werden. Stränge und größere Perlenmengen werden oft in Gramm bzw. Kilogramm gewogen. Wie bei allen anderen Edelsteinen ist die Größe entscheidend: Je größer die Perle, desto höher ist ihr Wert. Die größten Zuchtperlen sind normalerweise, aufgrund der Größe der Austern und deren erstaunlicher Perlmutt-Produktion, die Tahiti- und die Südsee-Perlen. Lüster Der Lüster beschreibt den irisierenden Perlglanz (Schmelz) der Oberfläche, hervorgerufen durch die Lichtbrechung und die Reflexion des Lichts an den feinen, obersten Aragonitlagen, also die Qualität der Lichtreflexionen von der Oberfläche. Der Lüster gilt als Hauptkriterium zur Bestimmung der Perlqualität bei gleicher Größe. Er sollte gleichmäßig und ohne stumpfe, teigige Stellen sein. Beim Vergleich mehrerer Stränge sieht man die Qualität des Perlglanzes besser. Wenn beim Juwelier die Rede vom Lüster ist, dann wird das Zusammenwirken von Lichtreflexion (Lüster im engeren Sinne) und Orient (siehe unten) gemeint. Oberflächenqualität Die Qualität des Lüsters steht im direkten Zusammenhang mit der Oberflächenbeschaffenheit der Perle. Eine Perle mit einer glatten, seidigen Oberfläche reflektiert das Licht immer besser und gleichmäßiger als eine Perle mit ausgeprägten Fehlern. Die einzelnen Molluskenarten bilden unterschiedlich gute Oberflächen von glatt bis körnig aus. Kleinere Unebenheiten, Vernarbungen und Vertiefungen an der Oberfläche werden als Spots bezeichnet, sie mindern den Wert der Perle. Farbe Das farbliche Äußere setzt sich aus der Grund- oder Körperfarbe und einem scheinbar über der Perloberfläche schwebenden, meist rosa- oder grünfarbenen Schimmer (der Orient, manchmal ist von einem Zwischenton oder einer Überfarbe die Rede) zusammen. Die Farbe ist abhängig von der Muschelart und vom Entstehungsort der Perle in der Muschel und wird zudem vom Lebensraum geprägt. Dabei spielen Nahrungsmittelangebot, Wasserbeschaffenheit und Temperatur eine Rolle. Sie soll gleichmäßig sein und keine Sprenkel oder Verfärbungen aufweisen. Häufig werden Perlen mit Wasserstoffperoxid gebleicht, um unansehnliche organische Flecken auf der Oberfläche zu entfernen oder ihren Originalfarbton in eine käuferfreundlichere Farbe zu verändern. Nach der Bohrung können die Perlen eingefärbt werden: Die Farbe der Perlen ist dann einheitlich und ohne jeden Fehler. Sie kosten weniger als naturfarbene Perlen und müssen im Handel und Verkauf als gefärbt deklariert werden. Auch eine Verfärbung durch Bestrahlung ist möglich und anzeigepflichtig. Akoya-Perlen sind bei der Ernte größtenteils cremefarben, gelblich oder grünlich und bekommen durch Nachbehandlung weiße, silberne und rosafarbene Farbtöne. Die durch den Vergleich mit Farbskalen bestimmte Farbe ist für die Perlqualität unerheblich. Für den Wert der Perle ist sie dennoch als Kriterium hervorzuheben, da manche Farben besonders gefragt sind. Typ der Perle Perlen aus verschiedenen Regionen unterscheiden sich in der Qualität und im Preis, somit ist die Herkunft entscheidend. Naturperlen wird nach wie vor ein erheblicher höherer Wert beigemessen als allen Zuchtperlen. Der Wert der kernlos gezüchteten Süßwasserzuchtperlen wird durch chinesische Überproduktion gedrückt. Stärke des Perlmutts Die Dicke und die Qualität der Perlmuttschichten bestimmen die Lebensdauer einer Perle. Ein starker Lüster bedeutet für gewöhnlich, dass die Perlschale stark und haltbar ist. Manchmal kristallisieren die Schichten nicht richtig aus, so dass bei aller Dicke der gewünschte Lüster fehlt. Bohrung Zur Prüfung legt man den Perlenstrang auf eine ebene Fläche und überprüft, ob alle Perlen in einer Reihe liegen. Perlen, die nicht exakt mittig gebohrt sind, ragen seitlich heraus. Die Bohrlöcher sollten alle gleich groß sein, um sich gut aufziehen zu lassen. Es ist zu überprüfen, ob es an den Bohrlöchern Perlmuttschäden gibt. Zuchtperlen Fast alle Perlen, die heutzutage für die Schmuckherstellung verwendet werden, werden gezüchtet. Anlass für die Bildung einer Zuchtperle ist ein eingebrachtes Transplantat, das zu einem Perlsack auswächst. Das kleine Transplantat besteht aus äußerem Mantelgewebe, demjenigen Organ, welches die Muschelschale bildet. Transplantate werden einer geopferten Spendermuschel entnommen. Die Empfängermuschel bildet die Zuchtperle in einem Zeitraum von wenigen Monaten bis zu mehreren Jahren. Dabei ist entscheidend, ob ein Kugelkern mit dem Transplantat eingesetzt wird oder nicht. Daher spricht man von kernlosen Zuchtperlen und von Zuchtperlen mit Kern. Vor diesem Hintergrund haben sich zwei „Normalfälle“ herausgebildet. Kernlose Zuchtperlen werden meistens in Süßwassermuscheln erzeugt, sie wachsen im Mantel der Empfängermuschel heran. Das resultierende Produkt ist die chinesische Süßwasser-Zuchtperle. Zuchtperlen mit Kern werden meistens in Salzwasseraustern erzeugt, sie wachsen in der Gonade der Empfängermuschel. Bekannte Produkte dieser Art sind die japanischen Akoya-, die weißen oder goldfarbenen Südsee- oder die dunklen Tahiti-Zuchtperlen. Da im Mantel bis zu über 40 Zuchtperlen (auf jeder Schalenhälfte um 20 Stück) in einer Periode erzeugt werden können, in der Gonade aber nur eine pro Zyklus, sind die marinen Zuchtperlen mit Kern im Allgemeinen viel teurer als kernlose Süßwasser-Zuchtperlen. Der Japaner Kokichi Mikimoto schaffte es, in den frühen 1920er Jahren die ersten vollrunden Zuchtperlen auf den Markt zu bringen. Zehn Jahre zuvor, 1913, hatte der deutsche Zoologe Friedrich Alverdes nachgewiesen, dass Perlen durch die Verlagerung von Epithelzellen in das Bindegewebe des Mantels der Muschel entstehen. Das letztlich von Mikimoto verwendete Verfahren geht auf zwei andere Japaner, Tokichi Nishikawa und Tatsuhei Mise, zurück, die es ihrerseits wahrscheinlich von dem Australier William Saville-Kent übernommen haben. Allerdings wurden bereits im 5. Jahrhundert n. Chr. in China „Buddha-Perlen“ in Süßwassermuscheln (wie z. B. Hyriopsis cumingi) gezüchtet. Dabei handelte es sich um in die Muscheln eingefügte kleine Buddha-Figuren aus Elfenbein, Gips oder Blei, die mit der Zeit durch Perlmutt beschichtet wurden. Dem schwedischen Naturwissenschaftler Carl von Linné war es schon im Jahre 1758 gelungen, mit einem T-förmigen Silberdraht einen Kern aus Gips in eine Süßwassermuschel, die Malermuschel (Unio pictorum), einzufügen, um runde Perlen zu züchten. Später verkaufte er das patentierte Verfahren. Das Patent wurde jedoch nie praktisch eingesetzt und geriet in Vergessenheit. Die Muscheln müssen in offenen Gewässern auf Muschelbänken etwa zwei Jahre lang in ihrem „Perlsack“ das Fremdkörper-Implantat Schicht um Schicht ummanteln, wobei nicht jede Muschel die Operation oder aber das angenommene Fremdkörper-Implantat für die Dauer von mindestens zwei Jahren überlebt. Nur in etwa 30 % der mit einem Implantat versehenen Muscheln entwickelt sich eine Perle. Nur 10 % dieser Perlen sind kommerziell brauchbar. Lediglich 3 % dieser Ernte sind perfekt rund. Nur 0,5 % hiervon erreichen die höchste Qualitätsstufe in Farbe, Form, Oberflächenbeschaffenheit und Lüster. Diese Zahlen variieren je nach Muschelart, Ort und Bedingungen der Zucht. Neben einer Zuchtperle können sich während ihrer Wachstumsphase in der Muschel auch eine Reihe sehr kleiner Perlen, die Saatperlen, ohne weiteres menschliche Zutun, bilden. Muscheln können mehrmals in ihrem Leben ein Fremdkörper-Implantat ummanteln. Nur einige wenige von weltweit 10.000 Muschelarten können Schmuckperlen hervorbringen. Bei der Zucht im Meerwasser kommen Muscheln der Gattung Pinctada, den Perlmuscheln (fälschlich oft auch Perlaustern bezeichnet), zum Einsatz; Süßwasser-Zuchtperlen werden in Muscheln der Gattung Hyriopsis gezüchtet. Nicht handelbare Perlen werden bereits in den Perlfarmen aussortiert und geschreddert. Das Pulver wird von der Kosmetikindustrie weiterverarbeitet. Perlmuschel Bei der Zucht im Meer kommen Muscheln der Gattung Pinctada (Perlmuscheln) zum Einsatz. Die englische Bezeichnung pearl oyster wird oft als „Perlauster“ übersetzt. Allerdings wird der Begriff oyster im Englischen traditionell in weiterem Sinne verwendet als im Deutschen und umfasst nicht nur die Familie der Austern, von denen mehrere Arten als Delikatesse verzehrt werden. Perlmuscheln dagegen gehören zur Familie der Flügelmuscheln. Zu den häufigsten Zuchtmuscheln gehören: Pinctada martensii (Dunker, 1872): Diese Muschel kommt hauptsächlich vor den südlichen Inseln Japans vor. Die bis zu 8 cm große Pinctada martensii wird auch als Akoya bezeichnet (japanisch ako „mein Kind“, ya „zeigt die Zuneigung“). Die Perlen dieser Muschel erreichen eine Größe bis zu 12 mm. Sie werden in Japan seit etwa 100 Jahren zur Perlengewinnung gezüchtet, in China seit 1980. Pinctada maxima (Jameson, 1901): Bei der Perlmuschelart Pinctada maxima handelt es sich um eine außerordentlich große Muschel. Sie kann über 5 kg wiegen. Sie kommt im östlichen Indischen Ozean bis hin zum tropischen westlichen Pazifik vor. Die Perlen dieser gut zur Zucht geeigneten Muschel können 20 mm groß werden. Pteria penguin (Röding, 1798): Pteria penguin ist im Roten Meer, Persischen Golf, Indischen Ozean und dem tropischen westlichen Pazifik beheimatet. Sie wird manchmal auch als „Schwarze Flügelmuschel“ bezeichnet. Sie produziert, wie auch Pinctada margaritifera, die bekanntesten schwarzen Perlen. Pinctada margaritifera (Linnaeus, 1758): Diese Muschel ist an der Ostküste Afrikas, im Roten Meer, im Persischen Golf, im Indischen Ozean sowie im westlichen und mittleren pazifischen Raum beheimatet. Es handelt sich bei Pinctada margaritifera eher um eine Gruppe leicht unterschiedlicher Muscheln. So wird zum Beispiel die „Schwarzlippige Perlmuschel“ aus dem polynesischen Raum, aus der die Tahitiperle gewonnen wird, als Pinctada margaritifera cumingi eingeordnet. Kulturhistorisch dürften die kostbarsten und berühmtesten Perlen der Antike (wie etwa die legendären Perlenohrringe der Königin Kleopatra) von dieser Muschelart stammen. Pinctada radiata (Leach, 1814) ist im Persischen Golf, Roten Meer, Indischen Ozean und, seit dem Bau des Suez-Kanals, stellenweise nun auch im Mittelmeer beheimatet. Die meisten Perlen der Antike dürften dieser Muschelart zu verdanken gewesen sein. Der Umfang der Kultivierung dieser Muschelart im Sinne der Zuchtperlen gilt als unbemerkenswert. Ihre Naturperlen genießen jedoch noch heute einen hohen Stellenwert. Pinctada imbricata (Röding, 1798): Bei der Muschelart Pinctada imbricata handelt es sich um jene Perlmuschel, welche für die ersten Perlen aus der Neuen Welt (Amerika) sorgte. Der Weltentdecker Kolumbus hatte Perlen dieser Muschelart bei Indianern an der Küste Venezuelas vorgefunden. Sie wird auch als „Atlantische Perlmuschel“ bezeichnet, da sie im westlichen Atlantik beheimatet ist (Bermuda, Florida und nördliches Südamerika). Die natürlichen Bestände dieser Muschelart gelten durch Überfischung vielerorts als ausgerottet oder sehr gefährdet, zumal diese Muschelart im Sinne der Zuchtperlen nicht kultiviert wird. Pinctada fucata (Gould, 1857) könnte als die bedeutendste Muschelart in der Geschichte der Perlenzucht gelten. Mit dieser Muschelart eröffnete der japanische Perlenzüchter Mikimoto bereits Anfang des 20. Jahrhunderts den Weltmarkt der Zuchtperlen. Sie ist auch als die „Akoya-Muschel“ (Akoya oyster) bekannt. Die Bezeichnung Pinctada fucada ist wissenschaftlich noch etwas unstabil. Sie ist in den Meeresgewässern von Japan, China, Taiwan, Vietnam und Australien beheimatet. Pinctada mazatlanica (Hanley, 1855) wird manchmal auch als die „La-Paz-Perlmuschel“ bezeichnet. Die wohl berühmteste tropfenförmige (halbbarocke) Perle aller Zeiten, La Peregrina, dürfte von dieser Muschelart stammen. Das Verbreitungsgebiet dieser ostpazifischen Muschelart erstreckt sich von der Westküste Mexikos (Baja California) bis nach Peru. Sie kann eine Größe von über 20 cm erreichen. Natürliche Perlen können über 10 mm groß sein. Neben weißen Perlen bringt diese Muschelart auch dunkelfarbige Perlen hervor. Perlentyp Die bekanntesten Perlenarten sind Flussperlen Die Flussperlmuschel Margaritifera margaritifera (L., 1758) ist maximal 14 cm groß. Sie bildet meist kleine, nicht ganz runde Perlen mit einem etwas schwächeren Lüster als bei Meerwasserperlen aus und kommt in den Flüssen und Bächen der nördlichen Hemisphäre vor. Für das Wachstum einer Perle von 4 mm wird mit einer Wachstumszeit von 20 bis 25 Jahren gerechnet, für Perlen von 6–7 mm mit 40 bis 50 Jahren. Extrem selten sind Flussperlen von einer Größe über 20 mm, die nur in über 250 Jahre alten Muscheln zu finden sind. Bei genauer Überprüfung stellen sich meistens die Perlen als Artefakte heraus oder das Alter der Muscheln entspricht nicht den Erwartungen. Die Muschel benötigt absolut saubere, kalkarme Gewässer, die im Urgestein entspringen, und gilt deshalb als hervorragender „Umweltindikator“. Meerwasserperlen-Varietäten Tahiti-Perlen Die Tahiti-Perle aus der Perlmuschel Pinctada margaritifera ist nach der tropischen Insel in Französisch-Polynesien benannt. In Europa ist sie erst seit 1845 bekannt. Dieser Perlentyp verfügt über einen großen Kontrast zwischen seiner grauen, silbernen oder schwarzen Grundfarbe und dem farbenfrohen Orient. Typisch sind Blau, Grün (die häufigste Orient-Farbe der Tahiti-Perle ist Dunkelgrün und wird „fly wing“ genannt), Pink (in Kombination mit einer schwarzen Grundfarbe entsteht die Farbe „Aubergine“) oder Purpur. Die seltensten und daher wertvollsten Oriente der Tahiti-Perle sind „Peacock“ (d. h. „Pfau“, eine Grün-Pink-Kombination) und reines Purpur. Tahiti-Perlen wachsen meist vier bis fünf Jahre lang. In die Muscheln lässt sich immer nur jeweils ein Nukleus implantieren, sie können aber mehrmals nacheinander besetzt und schließlich sogar in die freie Natur entlassen werden. Tahiti-Perlen gehören zu den größten Perlen; sie haben etwa 8 bis 16 Millimeter Durchmesser. In der westlichen Welt wurden sie durch Kaiserin Eugenie, Ehefrau Napoleons III., berühmt. Südsee-Perlen Südsee-Perlen aus der Perlmuschel Pinctada maxima werden in Indonesien, Australien und auf den Philippinen gezüchtet. Diese Perlenart ist für ihre weißen, silbernen und goldenen Perlen bekannt. Ihr Wachstum dauert normalerweise zwei bis sechs Jahre. In die Muscheln lässt sich immer nur jeweils ein Nukleus implantieren, sie können aber mehrmals nacheinander besetzt und schließlich sogar in die freie Natur entlassen werden, um ihre Gene an zukünftige Generationen weiterzugeben. Südsee-Perlen gehören zu den größten Perlen; meist haben sie 10 bis 16 Millimeter Durchmesser, können aber auch bis zu 20 Millimeter groß werden. Weil sie gut zu hellen Hauttönen passen, sind weiße Perlen nach wie vor die beliebtesten und teuersten Perlen. Akoya-Perle „Akoya-Perle“ ist eine generelle Handelsbezeichnung für im Japanischen Meer gewachsene Zuchtperlen aus Muscheln der Arten Pinctada martensii und Pinctada fucata. Seit einigen Jahren wird die Akoya-Perle auch in China, Tahiti und Vietnam gezüchtet. Die Akoya-Perlmuscheln sondern sehr viel weniger Perlmutt ab als die Südsee- oder Tahiti-Muscheln. Die Beschichtung des Perlmuttkerns ist deshalb bei den Akoya-Perlen sehr viel dünner. Sie wachsen normalerweise acht Monate bis zwei Jahre lang und können mit bis zu fünf Kugel-Nuklei bestückt werden; üblich sind zwei. Akoya-Perlen haben durchschnittlich 2 bis 6 Millimeter Durchmesser. Ungefähr jede fünfte besetzte Akoya-Muschel produziert Perlen, aber nur ein kleiner Bruchteil dieser Perlen besitzt Edelsteinqualität. Von Natur aus sind sie weiß oder cremefarben, durch menschliche Behandlung sind sie aber in verschiedensten Farben erhältlich. Keshi-Perlen Keshi-Perlen (Mohnsamenperlen) sind winzige Perlchen, die sich ungeplant bilden, wenn eine viel größere Perle mit Kern in einer Akoya-Muschel heranreift. Da Keshi kernlos sind, sind sie im strengen Sinne Naturperlen. Sie haben dasselbe Farbspektrum wie die Akoya-Perlen. Muscheln, die Südsee- und Tahiti-Perlen hervorbringen, produzieren auch Keshi-Perlen, die manchmal mehr als 10 mm lang sind. Wegen der interessanten Formen der Keshi-Perlen werden sie gern zu Schmuck verarbeitet. Süßwasserperlen-Varietäten Süßwasserperlen unterscheiden sich von anderen Zuchtperlen dadurch, dass sie nicht mit einem Nukleus versehen werden. Stattdessen wird nur ein kleiner Schnitt im Gewebe vorgenommen, in den ein Gewebeteilchen einer anderen Muschel eingesetzt wird. Dieser Vorgang wird bis zu 25 Mal an jeder Hälfte der Muschel vorgenommen, so dass bis zu 50 Perlen entstehen können. Die Muscheln, u. a. Hyriopsis schlegelii (Martens, 1861), werden dann zurück in ihren Lebensraum im Süßwasser gesetzt und zwischen zwei und sechs Jahre gehegt. Die Perlen bestehen aus solidem Perlmutt, das sie sehr leuchtend und farbenfroh macht, sind aber nur selten rund (meistens barockförmig), da kein Nukleus eingepflanzt wurde, der die Form beeinflussen konnte. Die Muscheln sind auch viel leichter anzubauen. Ihre Sterberate ist deutlich niedriger als die der mit Nukleus bestückten. Außerdem werden Süßwassermuscheln viel seltener Opfer von Naturkatastrophen wie Taifunen und Flutwellen, die Meerwasser-Perlenfarmen plagen. Die meisten Süßwasserperlen kommen heutzutage aus China, nachdem Anfang der 1960er Jahre die ersten kernlosen Süßwasserzuchtperlen in den Handel kamen. Heute ist es möglich, annähernd runde Perlen von bis zu 12 Millimeter Größe mit feinem Lüster zu züchten. Dazu werden geerntete Perlen mit neuem Epithelmaterial ein zweites oder auch drittes Mal in eine Perlmuschel wie Hyriopsis cumingii (Lea, 1852) eingepflanzt. In neuerer Zeit werden chinesische Süßwasserperlen auch mit Nukleus gezüchtet, die dann Perlen mit einem Durchmesser von bis zu 14 Millimetern hervorbringen und der japanischen Salzwasserzuchtperle sehr ähnlich sind. Biwa-Perlen Der größte See Japans ist der Biwa-See. Biwa-Perlen sind bekannt für ihre hohe Qualität, gleichmäßigen starken Lüster und glatte Oberfläche. Das Farbspektrum umfasst Cremeweiß, Weißrosa, Lachsorange, dunkles Weinrot und Violett. Die Austern nehmen keine Kerne an, somit sind sie kernlose Perlen und wachsen deshalb oft in bizarren Formen. Viele Süßwasserperlen werden als Biwa-Perlen bezeichnet, obwohl sie aus China stammen. Verwendung Bereits Plinius der Ältere und Tacitus beschrieben die Flussperle, aber beide lassen keine große Begeisterung erkennen. Sueton, der Sekretär von Kaiser Hadrian, schreibt allerdings in seiner Geschichte der römischen Kaiser, dass die britischen Perlen seinerzeit „den göttlichen Julius zum Englandfeldzug bewogen hatten“, also mit für Caesars Britannienfeldzüge verantwortlich waren. Die Perlen waren immer sehr rar und damit überaus kostbar, obwohl sie bereits im 19. Jahrhundert gezüchtet wurden. So führte Sachsen bei einer Fischerei-Ausstellung 1880 in Berlin seine Zuchtperlen vor. Es dürfte als gesichert gelten, dass die europäischen Zuchtperlenmethoden auch japanischen Naturwissenschaftlern bekannt waren, zumal die Beschaffung jeglichen westlichen Wissens eines der Hauptanliegen der Meiji-Restauration unter Kaiser Meiji (1868–1912) war. Aufgrund des sehr langsamen Wachstums und der hohen ökologischen Anforderungen war die Zucht der Flussperle aber wahrscheinlich nicht rentabel. Die Geschichte der sächsischen Perlenfischerei beginnt im 16. Jahrhundert und hält bis zum Ende des 19. Jahrhunderts an. Zwischen 1719 und 1879 wurden insgesamt 22.732 Perlen gefunden. Im Grünen Gewölbe in Dresden liegt eine Kette aus Flussperlen, die Berühmtheit erlangt hat, sie geht auf das Jahr 1734 zurück. In Russland hat es in den vergangenen Jahrhunderten die reichhaltigsten Perlenfunde gegeben. Die sakrale Goldschmiedekunst griff früh auf Perlen zurück, und einzigartige Exemplare sind heute in der Rüstkammer des Kremls in Moskau und in den Museen von Sankt Petersburg, Nowgorod und anderen Städten zu sehen. Kunsthandwerkliche Arbeiten mit Flussperlen besitzen in Deutschland u. a. die Schatzkammer der Residenz in München, die Schatzkammer in Altötting, das Bayerische Nationalmuseum in München, das Schloss Kronburg südlich von Memmingen, der Hildesheimer Domschatz, das Kloster Ebstorf in der Lüneburger Heide, das Grüne Gewölbe in Dresden sowie das Kestner-Museum in Hannover. Anekdoten Legenden um die schwarze Perle Eine der bekanntesten schwarzen Orient-Perlen ist die Azra. Sie ist das Herzstück einer Kette der russischen Kronjuwelen. Schätzungen zufolge müssen mehr als 15.000 Perlmuscheln aus der Natur geöffnet werden, um eine dieser Perlen zu finden. Einer polynesischen Legende nach wurde die Perlmuschel den Menschen von Oro gegeben, dem Gott des Friedens und der Fruchtbarkeit, der über einen Regenbogen auf die Erde hinabgestiegen sei. Es geht auch die Geschichte um, dass er dieses Geschenk aus Liebe zur schönen Prinzessin der Insel Bora-Bora gemacht habe. Nach der altindischen Überlieferung, über die bereits Plinius der Ältere und nach ihm viele andere berichteten, entstehen Perlen durch die Befruchtung der Muschel durch Tau. Diese Vorstellungen u. a. wurden später durch der Wahrheit näher kommende verdrängt, indem man die Perlen wie Bezoarsteine entstehen ließ, mit welchen sie das schichtenweise Wachsen gemeinsam haben. Im Kaiserreich China wurde den chinesischen Kaisern bei deren Ableben eine große Perle in den Mund gelegt. Perlen in Griechenland Die älteren griechischen Schriftsteller sprechen nicht von den Perlen; der erste, bei dem sie vorkommen, war Theophrast, ein Schüler des Aristoteles. In seinem Buch über die Steine schreibt er, dass kostbare Halsbänder aus Perlen gemacht würden. Bei den Medern und Persern waren besonders nach dem Sieg über Krösus Armringe und Halsbänder von Perlen, an welchen sie reich waren, ein so beliebter Schmuck, dass sie diesen – wie Chares bezeugt – höher schätzten als goldenes Geschmeide. Kleopatras Essig Plinius der Ältere erzählt in seiner Naturgeschichte eine der vielen Kleopatra VII. in einem ungünstigen Licht erscheinen lassenden Episoden, die Octavians Propagandafeldzug gegen die ägyptische Königin widerspiegeln. Mit dieser Schilderung wollte er die angebliche Verschwendungssucht Kleopatras anprangern. Demnach sei die Ptolemäerin im Besitz der zwei größten Perlen der Welt gewesen. Sie habe ihrem Geliebten, Marcus Antonius, immer luxuriöse Bankette bereitet. Einmal habe die „königliche Hure“ (so Plinius) aber das Essen verächtlich als bescheiden abgetan. Nun sei der Triumvir neugierig gewesen, wie man solchen Aufwand und Prunk noch steigern könne. Kleopatra habe geprahlt, die enorme Geldsumme von 10 Millionen Sesterzen in ein einziges Bankett investieren zu wollen. Der ungläubige Antonius habe gewettet, dass eine derart teure Inszenierung nicht möglich sei. Am nächsten Tag sei zwar wieder ein exquisites, aber nicht außergewöhnliches Essen aufgetragen worden. Da habe sich Antonius schon als Sieger gefühlt, als Kleopatra als zweiten Gang eine Schale mit scharfem Essig habe servieren lassen. Nun soll die ägyptische Königin laut Plinius eine der beiden großen Perlen ihrer Ohrringe im Essig aufgelöst und diesen getrunken haben. Dann habe sie beabsichtigt, mit ihrer zweiten Perle ebenso zu verfahren, doch der zum Schiedsrichter bestellte ehemalige Konsul Lucius Munatius Plancus sei mit der Bemerkung eingeschritten, dass Antonius die Wette verloren habe. Die zweite Perle sei nach Kleopatras Niederlage gegen Octavian auseinandergeschnitten und als Ohrgehänge der Statue der Venus im Pantheon in Rom verwendet worden. Längere Zeit wurde angenommen, dass sich Perlen in Essig nicht auflösen. So wurde etwa vorgeschlagen, dass sie die Perle als Ganzes verschluckt habe. 2010 fand eine Forscherin der Montclair University jedoch heraus, dass sich in einer 5%igen Säurelösung (wie es bei Essig gegeben ist) Perlmutt in kurzer Zeit löst, während dies bei Essigessenz (25%ige Essigsäure) sogar deutlich länger dauert. Perlen in Rom Der römische Kaiser Caligula (12–41 n. Chr.) ernannte sein Lieblingspferd Incitatus zum Senator und schmückte es anschließend mit einer Perlenkette. Seine dritte Ehefrau, Lollia Paulina, war eine regelrechte Perlenfanatikerin. Plinius erzählt von einer eher peinlichen Begegnung mit ihr bei einem völlig informellen Anlass. Sie war an Kopf, Hals, Ohren, Handgelenken und Fingern mit Perlen und Smaragden im Werte von 40 Mio. Sesterzen ausgestattet. Er erwähnt, dass sie sogar Quittungen von diversen Schmuckhändlern mit sich trug, um zu beweisen, wie wertvoll ihr Schmuck tatsächlich war. Die Mode, eine große Perle im Ohr zu tragen, war zur Kaiserzeit in Rom so gewöhnlich geworden, dass sich jedes Freudenmädchen mit diesem Schmuck brüstete. Um sich von solchen zu unterscheiden, trugen Damen aus höheren Ständen Ohrgehänge aus zwei oder drei birnenförmigen Perlen, die man mit dem Modeausdruck Elenchen oder Respektperlen belegte. Gegen diesen üppigen Luxus eifert schon Seneca. Der Kirchenvater Tertullian, der für seine besonders rigorosen Moralvorstellungen bekannt war, malt die Perlenzucht in lebendigen Farben, indem er ausruft: „Eine Million Sesterzen sind auf eine einfache Perlenschnur gereiht, ganze Wälder und Inseln trägt ein schwacher Nacken; in zarten Ohrläppchen hängt ein schweres Zinsenbuch und jeder Finger hat seinen Schatz, mit dem er tändelt. So hoch ist die Eitelkeit gestiegen, dass ein einziges Weib all ihr Hab und Gut am Leibe trägt.“ La Peregrina La Peregrina ist wohl die berühmteste Perle der Welt. Sie wurde im 16. Jahrhundert wahrscheinlich bei den Islas de las Perlas an der Pazifikküste Panamas gefunden. Die birnenförmige Perle wiegt 203,8 Grains (ca. 13,2 g) und ist für ihre außerordentliche Schönheit bekannt. Sie war im Besitz der Spanischen Krone. Prinz Philipp II. von Spanien schenkte sie seiner Braut, der damaligen Königin von England, Maria Tudor, der Tochter Heinrichs VIII. Von da an „pilgerte“ die Perle durch viele königliche Schmuckschatullen, unter anderem die Napoleons III. und Königin Viktorias. 1969 wurde sie bei Sotheby’s versteigert, wo sie der Schauspieler Richard Burton für 37.000 US-Dollar als Geschenk zum Valentinstag für Elizabeth Taylor erwarb, die die Perle bei Cartier in ein Collier fassen ließ. Vor Freude über das Ergebnis legte Taylor das Collier um und tanzte durch die Wohnung, wobei die kostbare Perle jedoch verloren ging. Entsetzt begann sie barfuß die ganze Wohnung abzugehen, um so vielleicht das Juwel zu finden. Als dies erfolglos blieb, versuchte sie sich abzulenken und beschloss ihre Pekinesenwelpen zu füttern. Doch als sie die beiden zu sich rief, kaute einer der Hunde bereits auf etwas herum: Er hatte die Perle gefunden und sie für einen leckeren Imbiss gehalten. Taylor war erleichtert, zumal sie La Peregrina ohne jeglichen Kratzer wieder hatte. Nach Taylors Tod wurde ihr Collier, das La Peregrina enthält, im Dezember 2011 bei Sotheby’s in London für 10,5 Millionen US-Dollar versteigert, ein Teil des Erlöses floss an Taylors AIDS-Stiftung. La Regente La Regente ist mit 337 Grains eine der größten Perlen der Welt. Napoleon I. schenkte diese Perle seiner zweiten Frau zur Geburt seines Sohnes, des späteren Königs von Rom. Später gehörte sie zum französischen Kronschatz und wurde 1887 vom Juwelier Fabergé im Zuge der Kronschatzveräußerung ersteigert, der die Perle an die Perlensammlerin Fürstin Jussupowa weiterverkaufte, der auch die Perle La Pellegrina gehörte (nicht zu verwechseln mit La Peregrina). La Regente war unter den wenigen Juwelen des riesigen Vermögens, die ihr Sohn, Fürst Felix, nach der Flucht aus Russland retten konnte. Vom Erlös der Perle konnte er einige Jahre leben. 2005 wurde die Perle erneut auf einer Auktion angeboten und war bei einem Verkaufswert von 2,1 Mio. Euro bis 2011 die teuerste Perle der Welt. Gewinnung von Perlen per U-Boot Die 1865 von dem Deutsch-Amerikaner Julius Kröhl gebaute Sub Marine Explorer gilt als erstes funktionsfähiges U-Boot der Welt. Geldgeber für das Projekt war William Henry Tiffany, Bruder des Gründers von Tiffany & Co. und einer der Hauptgesellschafter der Pacific Pearl Company. Das Boot besaß auf seiner Unterseite Luken, durch die Insassen Perlmuscheln vom Meeresboden aufsammeln konnten. Die gesamte Besatzung starb jedoch kurze Zeit später, vermutlich an der damals noch unbekannten Taucherkrankheit. Das erst 2001 identifizierte Wrack liegt noch heute am Strand einer Insel vor Panama. Siehe auch Perlenfischerei Künstliche Perle Imitationsperle Mallorquinische Imitationsperlen Perlenfischerei in Australien Die Perle Allahs Weblinks Einzelnachweise Malakologie Fischerei Tierisches Produkt Muschel in der Kultur
Q43436
135.538466
5047
https://de.wikipedia.org/wiki/Terbium
Terbium
Terbium ist ein chemisches Element mit dem Elementsymbol Tb und der Ordnungszahl 65. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden. Terbium ist nach dem ersten Fundort, der Grube Ytterby bei Stockholm, benannt, wie auch Yttrium, Ytterbium und Erbium. Geschichte Die Entdeckung des Elementes Terbium ist sehr verworren und bis heute nicht geklärt. Allgemein sieht man Carl Gustav Mosander als Entdecker an, der Anfang der 1840er die von Johan Gadolin entdeckte Yttererde untersuchte. Die vermeintlich reine Terbium-Verbindung war aber eine Mischung mehrerer Lanthanoide (Bunsen). Reines Terbium wurde erst mit Aufkommen der Ionenaustauschtechnik nach 1945 hergestellt. Aus dem Namen der schwedischen Grube Ytterby leitete Mosander die Elementbezeichnung ab. Vorkommen Terbium kommt in der Natur nur in Verbindungen vor. Bekannte terbiumhaltige Minerale sind: Cerit Monazit (Ce,La,Th,Nd,Y)PO4 mit einem Tb-Gehalt von max. 0,03 %, das Haupterz für Tb Gadolinit (Vorkommen bei Ytterby sind erschöpft) Euxenit (Y,Ca,Er,La,Ce,U,Th)(Nb,Ta,Ti)2O6 mit einem Tb-Gehalt von max. 1 % Gewinnung und Darstellung Nach einer aufwendigen Abtrennung der anderen Terbiumbegleiter wird das Oxid mit Fluorwasserstoff zum Terbiumfluorid umgesetzt. Anschließend wird mit Calcium unter Bildung von Calciumfluorid zum Terbium reduziert. Die Abtrennung verbleibender Calciumreste und Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum. Eigenschaften Das silbergraue Metall der Seltenen Erden ist duktil und schmiedbar. Bei Temperaturen oberhalb 1315 °C wandelt sich α-Terbium (hcp-Kristallgitter) in β-Terbium um. In Luft ist Terbium relativ beständig, es überzieht sich mit einer Oxidschicht. In der Flamme verbrennt es zum braunen Terbium(III,IV)-oxid (Tb4O7). Mit Wasser reagiert es unter Wasserstoffentwicklung zu Hydroxid. Verwendung Terbium wird zum Dotieren von Calciumfluorid, Calciumwolframat und Strontiummolybdat zur Verwendung in Halbleitern (solid-state devices) verwendet. Zusammen mit Zirconium(IV)-oxid dient es zur Gefügestabilisierung in Hochtemperatur-Brennstoffzellen. Das Oxid wird dem grünen Leuchtstoff in Bildröhren und Fluoreszenzlampen zugesetzt. Natriumterbiumborat dient als Lasermaterial zur Erzeugung von kohärentem Licht mit einer Wellenlänge von 546 nm (grün). Terbium-Eisen-Cobalt- oder Terbium-Gadolinium-Eisen-Cobalt-Legierungen dienen als Beschichtung auf wiederbeschreibbaren magneto-optischen (MO) Disks. Terbium-Dysprosium-haltige Legierungen zeigen eine starke Magnetostriktion (Längenänderung durch ein Magnetfeld oder magnetische Impulse bei Längenänderung). Solche Legierungen werden in der Materialprüftechnik eingesetzt. In Neodym-Eisen-Bor-Magneten erhöhen sie die Koerzitivität, das heißt die Entmagnetisierungs-Resistenz wird erhöht. Der durchsichtige künstliche Kristall Terbium-Gallium-Granat Tb3Ga5O12 zeigt einen starken Faraday-Effekt und wird daher für optische Isolatoren verwendet. Sicherheitshinweise Terbium und Terbiumverbindungen sind als gering toxisch zu betrachten. Das Element hat keine biologische Bedeutung für den menschlichen Organismus. Terbiummetallstäube sind wie fast alle Metallstäube feuer- und explosionsgefährlich. Verbindungen In Verbindungen kommt Terbium in den Oxidationsstufen +2, +3, +4 vor. Terbium(III)-sulfat Tb2(SO4)3 · 8 H2O: farblose Kristalle die unter Anregung mit kurzwelliger UV-Strahlung gelbgrün fluoreszieren. Eine Übersicht über weitere Terbiumverbindungen bietet die :Kategorie:Terbiumverbindung. Weblinks Einzelnachweise
Q1838
276.09273
6598264
https://de.wikipedia.org/wiki/Mord
Mord
Mord steht allgemein für ein vorsätzliches Tötungsdelikt, dem gesellschaftlich ein besonderer Unwert zugeschrieben wird. In der Regel unterscheiden historische und aktuelle Strafrechtssysteme zwischen einer einfachen oder minder qualifizierten vorsätzlichen Tötung und einer besonders verwerflichen Form, nach deutschem Sprachgebrauch dem „Mord“. Die Definition und systematische Stellung der in der Regel mit einem höheren Strafmaß sanktionierten zweiten Tötungsart variiert jedoch recht stark zwischen den verschiedenen Rechtssystemen. Die Häufigkeit von Morden sank in westlichen Ländern vom späten Mittelalter bis zur Gegenwart von 20 bis 70 pro 100.000 Einwohner und Jahr auf zirka einen Fall. Seit Anfang der 1990er Jahre wird in den Statistiken auch in weiteren Regionen der Erde ein Kriminalitätsrückgang beobachtet. Dogmatik Aus Sicht der strafrechtsdogmatischen Systematik wird „Mord“ in unterschiedlichen Rechtsordnungen als Grundtatbestand, Qualifikation oder eigenes Delikt sui generis angesehen. Hinsichtlich der Definition bezieht die Unterscheidung sich in den meisten Fällen entweder auf das „ethische Moment des Gesamtbilds der Tat“ oder auf das „psychologische Moment der Entschlussfassung“. Im letzteren Fall unterscheidet sich Mord von anderen Tötungsdelikten oft nur in der mens rea, dem subjektiven Tatbestand. Diese auf das römische Recht zurückgehende Abgrenzung zwischen Affekts- und Vorbedachtstötung, die kennzeichnend für das psychologische Moment der Entschlussfassung ist, wird von Teilen der Literatur als „Weltrecht“ (Kohler) angesehen. Dies ist jedoch zweifelhaft, da eine über alle Zeiten und Kulturen anerkannte Definition des Mordes nicht existiert. Im Völkerstrafrecht wird Mord wegen der daraus resultierenden Abgrenzungsschwierigkeit zum Teil mit vorsätzlicher Tötung gleichgesetzt. Treffen die Tatbestände Raub (zum Zwecke einer gewaltsamen Wegnahme) und Mord bei einer Tatausübung aufeinander, spricht man vom „Raubmord“. Rechtsgeschichte Die Unterscheidung zwischen Mord und anderen Tötungsdelikten wird in der Literatur auf die antike jüdische und griechische Rechtstradition zurückgeführt. Ein fundamentales Verbot zu morden ergibt sich aus der sumerischen Ethik, siehe Codex Ur-Nammu. Ähnliche Verbote finden sich in den zehn Geboten der israelitischen Religion. Im mosaischen Recht wurde zwischen Mord und Totschlag differenziert. In Drakons Gesetzen zwingt der Mord, das heißt die Tötung mit Vorbedacht (ek pronoia) und Planung (bouleusis) nach Auffassung des Kieler Rechtshistorikers Richard Maschke zur Blutrache, der sich der Mörder nur durch Flucht entziehen konnte. Dagegen war zur Abgeltung des Totschlags die Zahlung eines Wergeldes möglich. Als Voraussetzung für die Rache bzw. private Vollstreckung wurde schließlich ein zwingendes Gerichtsverfahren (Areopag) erforderlich. Ausgehend vom römischen Recht, in dem das homicidium praemeditatum dem Mord am ehesten entspricht, wurde die Unterscheidung von Affekt und Vorbedacht für die Abgrenzung zu anderen Tötungsdelikten in vielen Rechtskreisen kennzeichnend. Im deutschen Mittelalter galt Mord jedoch als die verheimlichte Tötung im Gegensatz zur Tötung im offenen Kampf Mann gegen Mann. Die Heimlichkeit konnte auch in der Wahl der Waffen zum Ausdruck kommen, z. B. Dolch statt Schwert. Der Strafgrund soll damit zu tun gehabt haben, dass sich der Täter der Verantwortung (Blutrache) entziehen wollte. Dagegen gab es den „ehrlichen Totschlag“. An diese Rechtstradition wurde in der Zeit des Nationalsozialismus mit Einführung des Mordmerkmals der Heimtücke in der Strafrechtsreform vom 4. September 1941 angeknüpft. Der „germanische“ ethische Begriff, der eine besonders verwerfliche oder besonders gefährliche Begehung voraussetzt, löste dabei den seit der Constitutio Criminalis Carolina vorherrschenden römisch-rechtlich geprägten Mordbegriff ab, der auf Überlegung oder Vorbedacht, also psychologische Gesichtspunkte, abstellte. Der Begriff der Heimtücke blieb im deutschen StGB bis heute erhalten. Rechtsvergleichung Abgrenzung zwischen Mord und anderen Tötungsdelikten Als rechtlicher Begriff ist Mord je nach Rechtsordnung von ganz unterschiedlichen rechtsdogmatischen Ausprägungen und Voraussetzungen geprägt: Mord (Deutschland), eine besonders verwerfliche Art der vorsätzlichen Tötung (Qualifikation zu Totschlag oder eigenständiger Tatbestand) im deutschen Strafrecht Mord (England und Wales), ein durch das Common Law definierter Straftatbestand im Recht von England und Wales Mord (Österreich), den Grundtatbestand der vorsätzlichen Tötungsdelikte im österreichischen Strafrecht Mord (Schweiz), eine Qualifikation der Vorsätzlichen Tötung im schweizerischen Strafrecht Mord (Südafrika), die vorsätzliche Tötung im Recht Südafrikas Mord (Vereinigte Staaten), fasst die schwerwiegendsten Formen der Tötung zusammen und ist überwiegend in den Strafrechtsbestimmungen der Bundesstaaten definiert; siehe auch Manslaughter (Vereinigte Staaten) Zweifelsfälle bei fremdkulturellen Maßstäben Die unterschiedlichen gesellschaftlichen Wertungen, die mit der Unterscheidung von Mord und Totschlag in verschiedenen Kulturen verbunden sind, werden zum Teil in Fällen von Ehrenmord thematisiert. Völkerstrafrecht Im Völkerstrafrecht ist die Differenzierung zwischen Mord und vorsätzlicher Tötung umstritten. Oft wird die Differenzierung sogar aufgegeben, so zum Beispiel im Čelebići-Fall vor dem Internationalen Strafgerichtshof für das ehemalige Jugoslawien, in dem wilful killing und murder in Bürgerkriegssituationen gleichgesetzt wurde. Der Begriff murder aus der englischen Fassung des Artikels 7 Abs. 1 a) des Römischen Statuts des Internationalen Strafgerichtshofs wird in der amtlichen deutschen Übersetzung im Bundesgesetzblatt mit „vorsätzliche Tötung“ übersetzt. Rechtsphilosophie In Friedrich Kirchners Wörterbuch der philosophischen Grundbegriffe wird in Anlehnung an das römische Recht Mord als absichtliche und unbefugte Tötung eines Menschen definiert. Für den neuhegelianischen (und später nationalsozialistischen) Rechtsphilosophen Julius Binder liegt die Unterscheidung zwischen Mord und einer staatlich angeordneten Hinrichtung darin, dass letztere „Rechtsbewährungshandlung“ sei, während sich der „besondere Wille“ des Mörders gegen den allgemeinen Willen des Gesetzes richte. Der Rechtsökonom Richard Posner ist der Auffassung, dass der Satz „Mord ist Unrecht“ („murder is wrong“) tautologisch sei, als mit der Aussage nur analytisch bestätigt würde, was im Begriff des Mordes (im Sinne von unrechtmäßiger Tötung) rein definitorisch als Wertung enthalten wäre. Am Beispiel von Mord und Bestechung (bribery) zeigt er, dass Straftatbestände zwischen den Kulturen sehr stark variieren. Daher sei eine Form des Relativismus angebracht und akademische Moralphilosophie nicht dazu geeignet, zu konkreten Aussagen zu kommen. Langfristige Trends Seit Anfang der 2000er Jahre ist in der Kriminologie bekannt, dass es in Europa zumindest seit dem späten Mittelalter einen mehr oder weniger gleichmäßigen Rückgang der Häufigkeit von Morden gibt. Cambridge-Professor Manuel Eisner veröffentlichte im Jahr 2003 eine entsprechende Studie. Das Diagramm basiert im Wesentlichen auf Eisners Zahlen. Darüber hinaus wurden von Our World in Data Ergänzungen und Fortschreibungen vorgenommen. Die Werte sind pro 100.000 Einwohner pro Jahr angegeben („Häufigkeitszahl“). Es zeigt sich eine drastische Abnahme der Mord-Raten vom späten Mittelalter bis zur Gegenwart. Die Häufigkeit sank von 20 bis 70 pro 100.000 Einwohner und Jahr auf ungefähr einen Fall. Die statistische Erfassung von Morden wird in der Kriminologie verwendet, um über lange Zeiträume und über geografische Regionen hinweg (auch weltweit) Vergleiche anzustellen. Dabei wird außerdem Mord als Näherungswert (Proxy) zur Abschätzung anderer Kriminalitätsbelastungen, insbesondere Gewaltkriminalität verwendet. Solche vergleichenden Untersuchungen führten zur Entdeckung eines Kriminalitätsrückgangs nicht nur in Europa, sondern auch in anderen Regionen der Erde. Die langfristige Entwicklung hat Ähnlichkeit mit anderen Bereichen des gesellschaftlichen Fortschritts. So gab es beispielsweise seit der Aufklärung ebenfalls große Verbesserungen bei der Lebenserwartung, Kindersterblichkeit und Alphabetisierung sowie auch weniger Kriege. Formen Auftragsmord Blutrache Ehrenmord Fahrlässige Tötung Fememord Hinrichtung Massenmord Meuchelmord Mord ohne Leiche Mordserie Politischer Mord Tyrannenmord Völkermord Weblinks Uwe Murmann: Zum Mordmerkmal der Heimtücke Anette Grünewald: Auf der Suche nach Mordmerkmalen Max Roser, Hannah Ritchie: Statistische Daten vieler Länder und interaktive Diagramme von Our World in Data (englisch) Einzelnachweise Besondere Strafrechtslehre Todesart
Q132821
262.066352
34209
https://de.wikipedia.org/wiki/Minuskel
Minuskel
Minuskel oder Minuskelschrift (von „etwas kleiner“) ist eine Bezeichnung für historische Schriftarten in Alphabetschriften, deren Buchstaben mit Ober- und Unterlängen in einem Vierlinienschema stehen. Außerdem bezeichnet der Begriff Minuskel bei der gemischten Verwendung von Klein- und Großbuchstaben die Kleinbuchstaben, die in der Druckersprache auch Gemeine genannt werden. Minuskelschriften Eine Minuskelschrift (oder kurz: Minuskel) besteht im Unterschied zur Majuskelschrift nicht aus gleich hohen Buchstaben (Zweilinienschema), sondern weist bei einer Reihe von Buchstaben Ober- und Unterlängen auf (Vierlinienschema), siehe Liniensystem. Geschichte Die ausgehende griechisch-römische Antike kannte schon beide Typen. So sind zum Beispiel Capitalis (auch: Kapitalis) und Unziale Majuskelschriften, jüngere römische Kursive (4. Jahrhundert) und Halbunziale (5. Jahrhundert) Minuskelschriften. Geschichtlich relevant wurde die um 780 als Hofschrift des fränkischen Reiches entstandene karolingische Minuskel. Sie wurde Mutterschrift der gesamten abendländischen Schriftenfamilie (Antiqua, gotische Schrift). Parallel dazu entwickelten sich im 8.–9. Jahrhundert im Bodenseeraum die Alemannische Minuskel mit den Zentren der St. Galler und Reichenauer Skriptorien und im 8. bis 12. Jahrhundert im angelsächsisch-irischen Raum die insulare Minuskel. Auf der iberischen Halbinsel war die westgotische Minuskel ab dem 8. Jahrhundert verbreitet, die aber seit dem 10. Jahrhundert zunehmend von der karolingischen Minuskel verdrängt wurden. Diese entwickelt sich dann weiter in frühgotische (ab Ende 11. Jahrhundert bis 13. Jahrhundert), gotische (14. Jahrhundert) und spätgotische (16. Jahrhundert) Minuskel. Kleinbuchstaben Seit der Renaissance gibt es Schriften, die ein Großbuchstaben- und ein Kleinbuchstabenalphabet in sich vereinen (Majuskeln und Minuskeln). Die kombinierte Verwendung von Klein- und Großbuchstaben hat weitreichende praktische und ästhetische Aspekte (pro und contra). Sie ermöglicht das Schreiben von Texten, die schnell gelesen und leicht verstanden werden können (siehe auch Großschreibung und Kleinschreibung). Minuskelhandschriften In der textkritischen Forschung zur Bibel werden Handschriften, die in Minuskelschrift geschrieben sind (im Unterschied zu den meist älteren Abschriften in Majuskel- oder Unzialschriften) als „Minuskelhandschriften“ oder meist einfach als „Minuskeln“ bezeichnet. Siehe dazu die Liste der Minuskelhandschriften des Neuen Testaments. Literatur Herbert Hunger: Antikes und mittelalterliches Buch- und Schriftwesen. In: Herbert Hunger: Die Textüberlieferung der antiken Literatur und der Bibel (= dtv 4176 Wissenschaftliche Reihe). Deutscher Taschenbuch-Verlag, München 1975, ISBN 3-423-04485-3, S. 25–147, (Unveränderter Nachdruck des 1961 erschienenen Band 1 der Geschichte der Textüberlieferung der antiken und mittelalterlichen Literatur.). Weblinks Typografie Paläografie Buchgestaltung Kalligrafie
Q8185162
137.439414
318896
https://de.wikipedia.org/wiki/Mensch-Computer-Interaktion
Mensch-Computer-Interaktion
Mensch-Computer-Interaktion (MCI, häufig als HCI abgekürzt von ) erforscht das Design und die Verwendung von Computer-Technologie an der Schnittstelle zwischen Menschen (Anwendern) und Computern. Als solches behandelt der Begriff die Mensch-Maschine-Interaktion (MMI) im Fachbereich der Computer. Forscher auf dem Gebiet der Mensch-Computer-Interaktion beschäftigen sich mit der Art und Weise, wie Menschen mit Computern und deren Benutzeroberflächen und Bedienungselementen umgehen. Dabei werden neben Erkenntnissen der Informatik auch solche aus der Psychologie (vor allem der Medienpsychologie), der Informationswissenschaft, der Arbeitswissenschaft, der Kognitionswissenschaft, der Ergonomie, der Soziologie und dem Design herangezogen. Grundlegendes Einordnung der Mensch-Computer-Interaktion Ein zur Mensch-Computer-Interaktion übergeordnetes Gebiet ist die Mensch-Maschine-Interaktion (oder Mensch-Maschine-Kommunikation), die sich mit ähnlichen Fragestellungen beschäftigt, aber den Interaktionspartner des Menschen zur Maschine verallgemeinert. In jedem Fall wird das Gesamtsystem von Mensch, Schnittstelle und dahinterliegendem technischen System zu einem Mensch-Maschine-System. Durch den Einzug von Computertechnik in den Alltag, Ubiquitous computing, verschmelzen Maschine und Computer bzw. gibt es zusehends keine modernen Maschinen mehr, die nicht auch Computertechnik einsetzen. Eine klare Trennung der Begriffe Mensch-Maschine-Interaktion und Mensch-Computer-Interaktion ist daher oft nicht mehr möglich. Interdisziplinärer Charakter der Mensch-Computer-Interaktion im wissenschaftlichen Bereich Als Forschungsgebiet befindet sich die Mensch-Computer-Interaktion an der Schnittstelle von Informatik, Verhaltenswissenschaften, Design, Medienwissenschaften und mehreren anderen Studienrichtungen. Der Begriff wurde von Stuart K. Card, Allen Newell und Thomas P. Moran in ihrem Buch von 1983, , popularisiert, obwohl die Autoren den Begriff zuerst 1980 verwendeten. Die erste bekannte Verwendung war Im Jahre 1975. Der Begriff bedeutet, dass, im Gegensatz zu anderen Tools mit nur begrenzten Verwendungen (wie ein Hammer, nützlich für das Einschlagen von Nägeln, aber nicht viel anderes), ein Computer viele Verwendungen hat und dies als ein offener Dialog zwischen dem Benutzer und dem Computer stattfindet. Der Begriff des Dialogs erkennt die Mensch-Computer-Interaktion zur Mensch-zu-Mensch-Interaktion, eine Analogie, die entscheidend für theoretische Überlegungen in diesem Bereich ist. Konferenzen Die wichtigste internationale Konferenzserie auf dem Gebiet der Mensch-Computer-Interaktion ist die (ACM) Konferenz (CHI). Sie wird von der , einer Themengruppe der ACM organisiert. Daneben gibt eine Vielzahl von internationalen Konferenzen zur Mensch-Computer Interaktion, manche mit Fokus auf ein bestimmtes Teilgebiet wie der ACM MobileHCI. Die nationale Tagung zum Thema Mensch-Computer Interaktion Mensch und Computer wird vom Fachbereich „Mensch-Computer-Interaktion“ der Gesellschaft für Informatik seit 2001 jährlich organisiert. Studienfach Mensch-Computer-Interaktion als Studienfach ist stark interdisziplinär und zumeist interfakultär ausgerichtet. Das Studium verbindet theoretische Grundlagen aus der Informatik und Psychologie mit anwendungsorientierten Themen aus den Bereichen Softwareentwicklung, Informationssysteme und Gestaltungswissenschaften. Forschungseinrichtungen Forschungsgruppe Human-Computer Interaction und Visual Analytics (VIS), Hochschule Darmstadt Human-Computer Interaction Center der RWTH Aachen (HCIC), RWTH Aachen Siehe auch Benutzerschnittstelle Command language grammar (CLG) Interaktionsdesign Brain-Computer-Interface (BCI) Literatur allgemein: Aspekte: weitere themennahe Literatur: Michael Friedewald: Konzepte der Mensch-Computer-Kommunikation in den 1960er Jahren: J. C. R. Licklider, Douglas Engelbart und der Computer als Intelligenzverstärker. In: Technikgeschichte, Bd. 67 (2000), H. 1, S. 1–24. Scibilia A, Pedrocchi N, Fortuna L: Human Control Model Estimation in Physical Human–Machine Interaction: A Survey. Sensors. 2022; 22(5):1732. https://doi.org/10.3390/s22051732. (Übersichtsartikel, siehe auch darin zitierte Literatur) Weblinks Fachbereich Mensch-Computer-Interaktion der Gesellschaft für Informatik (GI) ACM SIGCHI Definition von HCI (englisch) Vorlesung Mensch-Maschine-Interaktion (13 Sitzungen) von Heinrich Hußmann, WiSe 2006/2007 an der LMU München im Quicktime-Format mit Simultananzeige der PowerPoint-Präsentation Einzelnachweise Ergonomie Usability Kognitionswissenschaft Informationswissenschaft
Q207434
191.569965
3578
https://de.wikipedia.org/wiki/November
November
Der November ist der elfte Monat des Jahres im gregorianischen Kalender. Er hat 30 Tage. Der November beginnt mit demselben Wochentag wie der März und außer in Schaltjahren auch wie der Februar. Etymologie Alte deutsche Namen für die lateinische Bezeichnung November sind Windmond (eingeführt von Karl dem Großen im 8. Jahrhundert), Wintermonat und Nebelung. In den Niederlanden wurde der Monat auch Schlachtmond oder Schlachtemonat genannt, da zu dieser Zeit das Einschlachten der Schweine üblich war. Aufgrund der zahlreichen Anlässe des Totengedenkens trägt der November auch die Bezeichnung Trauermonat. Im römischen Kalender war der November ursprünglich der neunte Monat (lat. novem = neun). Im Jahr 153 v. Chr. wurde der Jahresbeginn allerdings um zwei Monate vorverlegt, sodass die direkte Beziehung zwischen Name und Monatszählung verloren ging. Dies wird manchmal bei der Übertragung der früher oft verwendeten lateinischen Datumsangaben vergessen. Unter Kaiser Commodus wurde der Monat in Romanus umbenannt, nach dem Tod des Kaisers erhielt er aber wieder seinen alten Namen zurück. Besondere Feiertage und Feste im deutschen Sprachraum Im Kirchenjahr gilt der November als ein Monat der Besinnung und des Gedenkens. Allerheiligen gedenkt die römisch-katholische Kirche aller ihrer Heiligen, dieser Gedenktag wird immer am 1. November begangen. Darauf folgt am 2. November Allerseelen, an dem die römisch-katholische Kirche der Verstorbenen gedenkt. Der 11. November ist der sog. Martinstag, ein Festtag der römisch-katholischen Kirche zu Ehren ihres Heiligen Martin von Tours. Ebenfalls am 11.11. um 11:11:11 Uhr wird die neue Kampagne im Karneval ausgerufen. Neben dem Martinstag sind der Hubertustag am 3. November und der Leonhardstag (Leonhardsritt) am 6. November zwei weitere Heiligenfeste im November die mit besonderem Brauchtum verbunden sind welches bis heute noch zelebriert wird. Der Volkstrauertag wird immer zwei Sonntage vor dem 1. Advent begangen und ist der Gedenktag für die gefallenen deutschen Soldaten der beiden Weltkriege. Am Mittwoch zwischen Volkstrauertag und Totensonntag liegt der Buß- und Bettag, ein Feiertag der evangelischen Kirche, an welchem man sich wieder mehr Gott zuwenden soll. Einen Sonntag vor dem 1. Advent liegt der Totensonntag, an dem die evangelische Kirche der Verstorbenen gedenkt. Die katholische Kirche feiert an diesem Tag den Christkönigssonntag. Der 1. Advent liegt in vier von sieben Fällen im November. Mit dem 1. Advent beginnt die Adventszeit und das Warten auf Weihnachten. Der Sonntag vor dem 1. Advent bildet auch den letzten Sonntag des Kirchenjahres. Der letzte Tag des Kirchenjahrs liegt jedoch, gemäß der kirchlichen Wochendefinition (abweichend von der DIN-Norm), am darauffolgenden Samstag; dieser kann damit spätestens am 2. Dezember liegen, in 5 von 7 Fällen liegt er aber im November. Tierkreiszeichen Im November dominiert das Tierkreiszeichen bzw. Sternzeichen des Skorpions (24.10. bis 22.11.), gegen Ende des Monats geht es zum Schützen (23.11. bis 21.12.) über. Der November im Gedicht Zahlreiche Schriftsteller haben sich mit dem November befasst und viele Gedichte mit Bezug zu diesem Monat geschrieben. Verschiedenes Die Durchschnittstemperatur der Erde in Bodennähe hatte ihren November-Höchststand seit Beginn der Messungen im Jahr 1881 im November 2013. Der Temperaturdurchschnitt habe 0,78 Grad Celsius über dem Durchschnitt von 12,9 Grad gelegen. Im 37. Jahr in Folge war der November damit wärmer als im Durchschnitt des 20. Jahrhunderts; der letzte kühlere ereignete sich 1976. Zudem war es der 345. Monat in Folge, der über dem Jahrhundertschnitt lag. Der November 2020 war der wärmste seit Beginn der Messungen (0,8 Grad wärmer als der Mittelwert von 1981 bis 2010, siehe auch globale Erwärmung). November ist auch die Bezeichnung für das „N“ im ICAO-Alphabet. Der November 2015 in Deutschland war der damals wärmste November seit Beginn der Wetteraufzeichnungen. Der Durchschnittswert erreichte +7,5 Grad und lag damit um +3,5 Grad über dem vieljährigen Mittelwert von +4 Grad. Der kälteste November wurde 1858 verzeichnet; er hatte eine Mitteltemperatur von −0,8 Grad. Die kälteste in einem November in Deutschland erreichte Temperatur war −25,9 Grad (am 28. November 1915 über der Zugspitze). Der zweitkälteste Wert wurde am 23. November 1858 über der Sternwarte in Jena registriert (−24,4 Grad). Siehe auch Wetter- und Bauernregeln für den November Weblinks Anmerkungen Monat des gregorianischen und julianischen Kalenders
Q125
2,693.313447
5925
https://de.wikipedia.org/wiki/1818
1818
Ereignisse Politik und Weltgeschehen Aachener Kongress 29. September: Der Aachener Kongress der Großmächte Russland, Österreich, Preußen, Frankreich und Großbritannien beginnt. Die Herrscher und hochrangigen Vertreter ihrer Staaten beraten über Maßnahmen, um die revolutionär-demokratische Entwicklung in Europa zu bekämpfen. Der Aachener Kongress gilt als erster Monarchenkongress. Teilnehmer sind Zar Alexander I. begleitet von Karl Robert von Nesselrode, König Friedrich Wilhelm III. von Preußen, Kaiser Franz I. von Österreich begleitet von Christian Günther Graf Bernstorff, Clemens Wenzel Lothar Fürst von Metternich und Karl August Fürst von Hardenberg, als Vertreter Englands Arthur Wellesley Wellington und Robert Castlereagh sowie auf Seiten Frankreichs Armand Emmanuel du Plessis, Herzog von Richelieu 9. Oktober: Während des Aachener Kongresses wird mit Frankreich ein Vertrag geschlossen, der einen sofortigen Abzug der Besatzungstruppen beinhaltet und die Zahlung von Reparationen von 700 auf 265 Millionen Francs herabsetzt. 15. November: Durch die Aufnahme Frankreichs entsteht die Pentarchie der europäischen Großmächte Russland, Großbritannien, Österreich, Preußen und Frankreich. Sie wird auf dem Aachener Kongress deklariert. 21. November: Der Aachener Kongress endet mit einer Deklaration der fünf europäischen Großmächte. Der Monarchenkongress verkündet darin die Solidarität der Teilnehmer zur Gewährleistung der Ruhe, des Glaubens und der Sittlichkeit. Gebiet des Deutschen Bundes 26. Mai: Bayern erhält per Edikt seine zweite Verfassung, welche jene aus dem Jahr 1808 ablöst und die Bildung einer Volksvertretung enthält. München wird Sitz des Bayerischen Landtags und des neuen Erzbistums München-Freising. 26. Mai: Mit dem neuen Preußischen Zollgesetz von 1818 werden die unterschiedlichen Akzisen in Preußen durch einen einheitlichen Außenzoll ersetzt. 22. August: Baden erhält eine von Karl Friedrich Nebenius ausgearbeitete liberale Verfassung, die eine Ständeversammlung vorsieht und das Großherzogtum zu einer konstitutionellen Monarchie macht. 8. Dezember: Nach dem Tod von Großherzog Karl Ludwig Friedrich übernimmt sein Onkel Ludwig I. die Regentschaft im Großherzogtum Baden. Die Neue Wache in Berlin wird fertiggestellt. Schweden 5. Februar: Nach dem Tod Karls XIII. regiert der frühere französische General Jean-Baptiste Bernadotte als Karl XIV. Johann. Er begründet eine neue Dynastie in Schweden. 11. Mai: In Stockholm wird Karl XIV. Johann zum schwedischen König gekrönt. Der frühere Marschall von Frankreich begründet das Königshaus Bernadotte. Chilenischer Unabhängigkeitskrieg 12. Februar: Chile, als Generalkapitanat Teil des Vizekönigreichs Peru, proklamiert seine Unabhängigkeit von Spanien. 16. März: Die Überraschung von Cancha Rayada im Chilenischen Unabhängigkeitskrieg bringt den Spaniern einen Sieg über die von José de San Martín befehligte Andenarmee. Wegen höherer Verluste der siegreichen kolonialen Truppen im Vergleich zur Rebellenarmee wird die Schlacht als Pyrrhussieg bewertet. 5. April: Mit der Niederlage in der Schlacht von Maipú gegen kreolische Patrioten unter der Führung von José de San Martín und Bernardo O’Higgins endet die spanische Herrschaft in Chile. 3. Juni: Bernardo O’Higgins verfügt per Dekret, dass in allen weltlichen und kirchlichen Verwaltungsakten das Wort Spanier durch Chilene ersetzt werden muss und dass ohne Unterschied auch die indigene Bevölkerung als Chilenen zu benennen sei. Vereinigte Staaten von Amerika 19. Oktober: Mit dem Vertrag von Old Town treten die Chickasaw ihr nördliches Territorium, das heutige westliche Tennessee, an die USA ab. 20. Oktober: Im Londoner Vertrag einigen sich die USA und Großbritannien auf den 49. Breitengrad als Grenze zwischen Kanada und den Vereinigten Staaten bis zu den „Stony Mountains“. Das Gebiet des Oregon Country westlich davon soll von den USA und Kanada gemeinsam genutzt werden. Daraus entstehen weitere Streitigkeiten. 3. Dezember: Der südliche Teil des bisherigen Illinois-Territorium wird unter dem Namen Illinois als 21. Mitgliedstaat in die USA aufgenommen. Der nördliche Teil wird dem Michigan-Territorium zugeschlagen. Rurik-Expedition 3. August: Die russische Rurik-Expedition geht nach drei Jahren ohne die erhoffte Entdeckung der Nordwestpassage zu Ende. Wirtschaft 12. Mai: Gründung der Württembergischen Landessparkasse 15. Juni: Eröffnung der ersten Berliner Sparkasse im alten Berliner Rathaus an der Spandauer Straße. 29. Juli: In Paris entsteht die erste französische Sparkasse, Jules Paul Benjamin Delessert gründet die Caisse d'Epargne et de Prévoyance. Wissenschaft und Technik 3. Januar: Die letzte Bedeckung eines Planeten durch einen anderen bis zum Jahr 2065 findet statt (Venus bedeckte Jupiter). Allerdings sind keine Beobachtungen dieses Ereignisses überliefert; es konnte nur vom Pazifischen Ozean aus beobachtet werden (Okkultationen). 12. Januar: Das Großherzogtum Baden erteilt Karl Drais das Privileg für die Draisine. 17. Februar: Karl Drais erhält das französische Patent für die Draisine. 2. März: Giovanni Battista Belzoni entdeckt die Grabkammer in der Chephren-Pyramide wieder, findet darin aber nur einen leeren Sarkophag. 18. Oktober: König Friedrich Wilhelm III. hebt die Universität Duisburg auf. Das Universitätsszepter und bedeutende Teile der Universitätsbibliothek gehen an die neu gegründete Rheinische Friedrich-Wilhelms-Universität Bonn. Am gleichen Tag werden auch die Universitäten in Münster und Paderborn aufgehoben. Jöns Jakob Berzelius beschreibt erstmals das Mineral Eukairit. Kultur Literatur 1. Januar: Der Roman Frankenstein oder Der moderne Prometeus von Mary Wollstonecraft Shelley erscheint vorerst anonym. Musik und Theater 5. März: Die Oper Mosè in Egitto von Gioachino Rossini auf das Libretto von Andrea Leone Tottola wird mit großem Erfolg am Teatro San Carlo in Neapel uraufgeführt. Aus Zeitgründen hat auch der mit Rossini befreundete Komponist Michele Carafa eine Arie beigesteuert. 16. Mai: Uraufführung der Oper Orestes von Conradin Kreutzer in Prag 30. Mai: Uraufführung der Oper Die Rosenmädchen von Peter Joseph von Lindpaintner am Theater an der Wien in Wien 25. September: Uraufführung der Oper Il Barone di Dolsheim von Giovanni Pacini am Teatro alla Scala di Milano in Mailand 12. Oktober: Das nach den Plänen von Karl von Fischer errichtete Nationaltheater München wird nach fast siebenjähriger Bauzeit mit der Uraufführung von Ferdinand Fränzls Oper Die Weihe eröffnet. 3. Dezember: Die Oper Ricciardo e Zoraide von Gioachino Rossini hat mit mehrwöchiger Verspätung ihre erfolgreiche Uraufführung am Teatro San Carlo in Neapel. 24. Dezember: In der Schifferkirche St. Nikola in Oberndorf bei Salzburg wird das von Dorfschullehrer Franz Xaver Gruber auf einen Text des Hilfspfarrers Joseph Mohr komponierte Weihnachtslied Stille Nacht, heilige Nacht erstmals aufgeführt. Religion 22. Januar: Das im ehemaligen Collegium illustre neu eingerichtete Höhere Katholische Konvikt in Tübingen erhält mit den Organischen Bestimmungen eine Satzung und eine Bibliothek. 22. März: Zum letzten Mal vor dem Jahre 2285 fällt Ostersonntag an diesem Tag auf seinen frühstmöglichen Termin. Seit Einführung des gregorianischen Kalenders im Jahre 1582, ist dies nach 1598, 1693 und 1761 das vierte Mal. Natur und Umwelt 29. April: Der britische Seefahrer William Scoresby beobachtet einen Ausbruch des Vulkans Beerenberg auf der Insel Jan Mayen. Sport In Henley-on-Thames wird der Ruderverein Leander Club gegründet. Geboren Januar/Februar 5. Januar: James Monroe Deems, US-amerikanischer Komponist und Brigadier-General im Sezessionskrieg († 1901) 5. Januar: Ferdinand von Roemer, deutscher Geologe, Paläontologe und Mineraloge († 1891) 6. Januar: Rudolph von Hertzberg, deutscher Musikdirektor und Gesangslehrer († 1893) 10. Januar: Ernst Ludwig Taschenberg, deutscher Entomologe († 1898) 14. Januar: Ole Jacob Broch, norwegischer Mathematiker und Politiker († 1889) 14. Januar: Zacharias Topelius, finnlandschwedischer Dichter und Schriftsteller († 1898) 16. Januar: Ferdinand Kommerell, deutscher Mathematiker († 1872) 18. Januar: Joseph Matthäus Aigner, österreichischer Porträtmaler († 1886) 18. Januar: Adolf Aronheim, deutscher Jurist und Politiker († 1880) 18. Januar: August Ebrard, deutscher evangelischer Theologe († 1888) 25. Januar: Théodore Mozin, französischer Komponist und Musikpädagoge († 1850) 25. Januar: Ferdinand Schlöth, Schweizer Bildhauer († 1891) 26. Januar: Gustav Dresel, deutsch-US-amerikanischer Kaufmann und Schriftsteller († 1848) 27. Januar: Heinrich Richard Baltzer, deutscher Mathematiker († 1887) 28. Januar: George S. Boutwell, US-amerikanischer Politiker († 1905) 31. Januar: Fritz Anneke, deutscher Revolutionär und nordamerikanischer Offizier († 1872) 31. Januar: Carlos Luis de Borbón, carlistischer Thronprätendent in Spanien († 1861) 3. Februar: Hermann Heinrich Grafe, Gründer der Freien evangelischen Gemeinden († 1869) 3. Februar: Mary Phinney von Olnhausen, amerikanische Krankenschwester und Abolitionistin († 1902) 4. Februar: Rudolf Baier, erster Stralsunder Museumsdirektor († 1907) 4. Februar: Theodor Wilhelm Danzel, deutscher Literaturhistoriker († 1850) 5. Februar: Paul Meurice, französischer Schriftsteller († 1905) 6. Februar: Karl Aberle, österreichischer Mediziner († 1892) 6. Februar: Henry Litolff, englischer Klaviervirtuose, Komponist und Musikverleger († 1891) 10. Februar: Isham G. Harris, US-amerikanischer Politiker († 1897) 11. Februar: Madatya Karakaschian, armenischer Sprachwissenschaftler, Lehrer, Publizist und Mechitarist († 1903) 15. Februar: Jan Pětr Jordan, sorbischer Wissenschaftler und Philosoph († 1891) 16. Februar: Wilhelm Wider, deutscher Maler († 1884) 19. Februar: Tod Robinson Caldwell, US-amerikanischer Politiker († 1874) 20. Februar: Wilhelm Adolph von Trützschler, Thüringer Jurist, Teilnehmer der Revolution in Baden († 1849) 22. Februar: Joseph W. McClurg, US-amerikanischer Politiker († 1900) 23. Februar: Gustav Jahn, deutscher Schriftsteller und kirchlicher Sozialarbeiter († 1888) 27. Februar: Charles Gordon-Lennox, 6. Duke of Richmond, britischer Politiker († 1903) März/April 1. März: John F. Lewis, US-amerikanischer Politiker († 1895) 1. März: Johann Rudolf von Toggenburg, Schweizer Jurist und Politiker († 1893) 3. März: Konstantin Petrowitsch von Kaufmann, russischer General († 1882) 6. März: William Claflin, US-amerikanischer Politiker († 1905) 7. März: Julian Schmidt, deutscher Literaturhistoriker († 1886) 8. März: Heinrich Albert Hofmann, deutscher Buchhändler, Verleger und Theaterleiter († 1880) 11. März: Henri Etienne Sainte-Claire Deville, französischer Chemiker († 1881) 11. März: Marius Petipa, französisch-russischer Tänzer und Choreograf († 1910) 12. März: Georges Bousquet, französischer Komponist, Dirigent und Musikkritiker († 1854) 12. März: John S. Hager, US-amerikanischer Politiker († 1890) 16. März: George Paget, britischer Politiker und General († 1880) 17. März: Benedikt Latzl, mährischer Orgelbauer († 1884) 23. März: Balthasar Elischer, Begründer der Sammlung Elischer († 1895) 24. März: August Leu, deutscher Maler († 1897) 25. März: Marie von Württemberg, paragierte Landgräfin von Hessen-Philippsthal († 1888) 27. März: Heinrich Geyer, Prophet der katholisch-Apostolischen Gemeinden (KAG) († 1896) 27. März: Jacob Axel Josephson, schwedischer Komponist († 1880) 28. März: Wade Hampton III., US-amerikanischer General († 1902) 30. März: Friedrich Wilhelm Raiffeisen, Gründer der genossenschaftlichen Bewegung in Deutschland († 1888) 1. April: Omar D. Conger, US-amerikanischer Politiker († 1898) 3. April: Luther Whiting Mason, US-amerikanischer Musikpädagoge († 1896) 4. April: Carl Steffeck, deutscher Maler und Grafiker († 1890) 7. April: Martin Hertz, deutscher Altphilologe († 1895) 8. April: August Wilhelm von Hofmann, deutscher Chemiker († 1892) 8. April: Christian IX., dänischer König und Schleswiger Herzog († 1906) 9. April: Walther Wolfgang von Goethe, deutscher Komponist († 1885) 11. April: Constantin von Wurzbach, österreichischer Bibliothekar, Lexikograph und Schriftsteller († 1893) 14. April: Marie von Sachsen-Altenburg, Ehefrau Georgs V. von Hannover († 1907) 17. April: Rudolf von Apfaltern, österreichischer Militär 18. April: Giuseppe Fratecolla, Schweizer Jurist, Offizier und Politiker († 1873) 20. April: Heinrich Göbel, deutsch-US-amerikanischer Erfinder († 1893) 22. April: Ferdinand Gumbert, deutscher Komponist, Gesangspädagoge, Musikkritiker († 1896) 29. April: Alexander II., russischer Zar († 1881) Mai/Juni 1. Mai: Hermann von Tresckow, preußischer General († 1900) 4. Mai: Thomas Adams, US-amerikanischer Erfinder († 1905) 5. Mai: Karl Marx, deutscher Philosoph, Ökonom und Journalist († 1883) 10. Mai: František Hegenbarth, tschechischer Cellist und Musikpädagoge († 1887) 15. Mai: Bogumil Dawison, polnisch-deutscher Schauspieler († 1872) 20. Mai: Eduard Iwanowitsch Totleben, russischer General († 1884) 20. Mai: Jens Christian Hostrup, dänischer Schriftsteller († 1892) 23. Mai: Alfred von Fabrice, sächsischer Militär und Regierungschef († 1891) 25. Mai: Jacob Burckhardt, Schweizer Historiker († 1897) 26. Mai: Lorenzo De Medici Sweat, US-amerikanischer Politiker († 1898) 26. Mai: Georg Daniel Eduard Weyer, deutscher Mathematiker († 1896) 27. Mai: Amelia Bloomer, US-amerikanische Frauenrechtlerin († 1894) 27. Mai: Bernhard von Lepel, preußischer Offizier und Schriftsteller († 1885) 27. Mai: Franz Donders, niederländischer Physiologe und Wegbereiter auf dem Gebiet der Augenheilkunde († 1889) 28. Mai: Pierre Gustave Toutant Beauregard, US-amerikanischer General († 1893) 31. Mai: John Albion Andrew, US-amerikanischer Politiker († 1867) 31. Mai: Václav Vladivoj Tomek, tschechischer Historiker († 1905) 3. Juni: Louis Faidherbe, französischer General († 1889) 3. Juni: Adolf Theodor Hermann Fritzsche, deutscher Altphilologe († 1878) 4. Juni: Élie Abel Carrière, französischer Botaniker († 1896) 9. Juni: Adolf Edvard Arppe, finnischer Chemiker und Senator († 1894) 10. Juni: Hubert Ferdinand Kufferath, deutscher Komponist († 1896) 11. Juni: Alexander Bain, schottischer Philosoph und Pädagoge († 1903) 13. Juni: August Ludwig Viktor, Herzog von Sachsen-Coburg-Koháry († 1881) 13. Juni: Livia Frege, deutsche Sängerin, Salonière und Mäzenin († 1891) 14. Juni: Henry Gardner, US-amerikanischer Politiker († 1892) 17. Juni: Charles François Gounod, französischer Komponist († 1893) 21. Juni: Ernst II., Herzog von Sachsen-Coburg und Gotha († 1893) 23. Juni: Simon Vissering, holländischer Nationalökonom und Statistiker († 1888) 24. Juni: Carl Alexander, Großherzog von Sachsen-Weimar-Eisenach († 1901) 25. Juni: Friedrich Alexander Graf von Bismarck-Bohlen, preußischer General († 1894) 28. Juni: Angelo Secchi, italienischer Astronom und Jesuitenpater († 1878) Juni: Cesare Ciardi, italienischer Flötist und Komponist († 1877) Juli/August 1. Juli: Johanna Gabillon, deutsche Schauspielerin († 1875) 1. Juli: Ignaz Semmelweis, österreichischer Arzt und Hygiene-Pionier († 1865) 1. Juli: Jetty Treffz, österreichische Opernsängerin († 1878) 3. Juli: Johann Ludwig Hinrichs, Mitbegründer der deutschen Baptistengemeinden († 1901) 6. Juli: Adolf Anderssen, deutscher Schachmeister († 1879) 7. Juli: Peter Early Love, US-amerikanischer Politiker († 1866) 18. Juli: Celadon Daboll, Erfinder des Nebelhorns († 1866) 21. Juli: Charles L. Robinson, US-amerikanischer Politiker († 1894) 22. Juli: J. Gregory Smith, US-amerikanischer Politiker († 1891) 25. Juli: Santiago González Portillo, Präsident von El Salvador († 1887) 25. Juli: Albert Abdullah David Sassoon, britisch-indischer Kaufmann († 1896) 28. Juli: Kuno von Auer, preußischer Generalmajor († 1895) 30. Juli: Emily Brontë, britische Schriftstellerin († 1848) 30. Juli: Jan Heemskerk, niederländischer Staatsmann († 1897) 31. Juli: Heinrich Kiepert, deutscher Geograph und Kartograph († 1899) 1. August: Maria Mitchell, US-amerikanische Astronomin und Frauenrechtlerin († 1889) 3. August: Katharina Weißgerber, erhielt das Eiserne Kreuz († 1886) 8. August: Johann Baptist Häner, Schweizer Politiker († 1885) 10. August: William Mathewson Eddy, US-amerikanischer Landvermesser († 1854) 13. August: Lucy Stone, US-amerikanische Frauenrechtlerin und Abolitionistin († 1893) 14. August: François d’Orléans, französischer Admiral († 1900) 17. August: Heinrich Hirzel, Schweizer evangelischer Geistlicher († 1871) 18. August: William Farquhar Barry, US-amerikanischer General († 1879) 18. August: Henri Le Secq, französischer Fotograf († 1882) 18. August: Václav Bolemír Nebeský, tschechischer Dichter und Philosoph († 1882) 20. August: John Ball, irischer Politiker († 1889) 22. August: Carlo Pisacane, italienischer Politiker († 1857) 22. August: Rudolf von Jhering, deutscher Jurist († 1892) 23. August: Johann Georg Eccarius, deutscher Arbeiteraktivist und Gewerkschafter († 1889) 23. August: Wilhelm Rudolf Kutter, Ingenieur für Wasserbau und Kanalsysteme († 1888) 23. August: Max Schmidt, deutscher Maler († 1901) 25. August: Shiv Dayal Singh (alias Soamiji Maharaj), indischer Mystiker († 1878) 25. August: Thomas Wade, britischer Sinologe († 1895) 30. August: Friedrich Ladegast, deutscher Orgelbauer († 1905) September/Oktober 1. September: Johan Thomas Lundbye, dänischer Maler († 1848) 3. September: Karl von Vogelsang, katholischer Publizist, Politiker und Sozialreformer († 1890) 4. September: Dimitar Mutew, Aktivist der Bulgarischen Nationalen Wiedergeburt († 1864) 7. September: Miroslav Vilhar, slowenischer Autor, Komponist und Politiker († 1871) 7. September: Thomas Talbot, US-amerikanischer Politiker († 1886) 8. September: David Fries, Schweizer evangelischer Geistlicher und Politiker († 1875) 8. September: Karl Viktor Müllenhoff, deutscher Philologe († 1884) 10. September: Carl Julius von Abel, württembergischer Eisenbahningenieur († 1883) 12. September: Richard Gatling, US-amerikanischer Erfinder († 1903) 12. September: Theodor Kullak, deutscher Pianist und Komponist († 1882) 13. September: Gustave Aimard, französischer Schriftsteller († 1883) 14. September: José Güell y Renté, kubanisch-spanischer Politiker und Schriftsteller († 1884) 17. September: William Henry Barnum, US-amerikanischer Politiker und Industrieller († 1889) 18. September: Vincent Heinrich Mann, deutscher Jurist († 1889) 27. September: Adolph Wilhelm Hermann Kolbe, deutscher Chemiker († 1884) 28. September: George W. Ladd, US-amerikanischer Politiker († 1892) 29. September: Nathaniel B. Baker, US-amerikanischer Politiker († 1876) 2. Oktober: Conrad Wilhelm Hase, deutscher Architekt († 1902) 4. Oktober: Francesco Crispi, italienische Revolutionär, Politiker und Ministerpräsident († 1901) 8. Oktober: John Walter III, Verleger der Zeitschrift „The Times“ († 1894) 9. Oktober: Henry Lippitt, US-amerikanischer Politiker († 1891) 13. Oktober: Louis Appia, Chirurg und Mitbegründer des Internationalen Komitees vom Roten Kreuz († 1898) 15. Oktober: Alexander Dreyschock, böhmischer Klaviervirtuose und Komponist († 1869) 15. Oktober: Johann Gungl, ungarndeutscher Geiger, Komponist und Dirigent († 1883) 15. Oktober: Franz von Löher, deutscher Jurist, Historiker und Politiker († 1892) 15. Oktober: Ludwig von Wittich, preußischer General († 1884) 17. Oktober: Tassilo von Heydebrand und der Lasa, deutscher Schachmeister († 1899) 18. Oktober: Elizabeth Fries Ellet, US-amerikanische Autorin, Historikerin und Dichterin († 1877) 18. Oktober: Carl Hugo Hahn, deutscher evangelischer Missionar († 1895) 18. Oktober: Charles Christian Nahl, deutsch-US-amerikanischer Maler († 1878) 19. Oktober: Friedrich Mergner, evangelischer Theologe und Komponist († 1891) 22. Oktober: Charles Leconte de Lisle, französischer Dichter († 1894) 23. Oktober: Johann Georg Förster, deutscher Orgelbauer († 1902) 26. Oktober: Ludwig Häusser, deutscher Historiker und liberaler Politiker († 1867) 29. Oktober: Catherine Hayes, irische Opernsopranistin († 1861) November/Dezember 5. November: Benjamin Franklin Butler, US-amerikanischer General († 1893) 5. November: Georg Friedrich Wagner, deutscher Orgelbauer († 1880) 6. November: Joseph Lajeunesse, kanadischer Musiker und Musikpädagoge († 1904) 7. November: Emil Du Bois-Reymond, Physiologe und Mathematiker († 1896) 9. November: Iwan Sergejewitsch Turgenew, russischer Schriftsteller († 1883) 10. November: Karl Gustav Amelung, deutscher Bergbeamter († 1866) 10. November: James Pike, US-amerikanischer Politiker († 1895) 11. November: Johann Christian Ott, Schweizer Kaufmann, Beamter und Dichter († 1878) 13. November: Wilhelm Herchenbach, deutscher Schriftsteller († 1889) 16. November: Sidney Dean, US-amerikanischer Politiker († 1901) 18. November: Marco Minghetti, italienischer Politiker († 1886) 20. November: Karol Szajnocha, polnischer Schriftsteller und Historiker († 1868) 21. November: Lewis Henry Morgan, US-amerikanischer Anthropologe († 1881) 22. November: Caesar Achatius von Auerswald, deutscher Richter und Verwaltungsjurist († 1883) 23. November: Joseph von Egle, württembergischer Architekt und Baubeamter († 1899) 24. November: August Dächsel, deutscher evangelischer Pfarrer und Theologe († 1901) 24. November: William Woods Holden, US-amerikanischer Politiker († 1892) 25. November: Lambert Heinrich von Babo, deutscher Chemiker († 1899) 26. November: Louis Lacombe, französischer Komponist († 1884) 28. November: Karl Maximilian von Bauernfeind, deutscher Ingenieur und Geodät († 1894) 2. Dezember: Diedrich Wilhelm Andreas Augspurg, deutscher Politiker († 1898) 3. Dezember: Max von Pettenkofer, deutscher Chemiker und Hygieniker († 1901) 4. Dezember: Josef Sies, österreichischer Orgelbauer († 1886) 7. Dezember: Luise Neumann, deutsche Schauspielerin († 1905) 8. Dezember: Charles III., Fürst von Monaco († 1889) 10. Dezember: František Ladislav Rieger, tschechischer Publizist und Politiker († 1903) 10. Dezember: William W. Welch, US-amerikanischer Politiker († 1892) 12. Dezember: Paul Octave Hébert, US-amerikanischer Politiker († 1880) 18. Dezember: Daniel Heinrich Mumm von Schwarzenstein, deutscher Oberbürgermeister von Frankfurt am Main († 1890) 18. Dezember: William Moon, britischer Blindenpädagoge, Entwickler der Blindenschrift Moonalphabet († 1894) 20. Dezember: Ludwig Brüel, deutscher Jurist und Politiker († 1896) 21. Dezember: Amalie Marie Friederike, Herzogin von Oldenburg, Prinzessin von Bayern und Königin von Griechenland († 1875) 22. Dezember: Konrad von Parzham, bayerischer Laienbruder aus dem Kapuzinerorden, Heiliger der katholischen Kirche († 1894) 24. Dezember: James Prescott Joule, britischer Physiker († 1889) 26. Dezember: Moritz Baumert, deutscher Mediziner und Chemiker († 1865) 28. Dezember: Carl Remigius Fresenius, deutscher Chemiker († 1897) Genaues Geburtsdatum unbekannt Carl Wilhelm von Ahlefeldt, Gutsherr des Adligen Gutes Treuholz und Propst des Klosters Uetersen († 1897) Carl Berthold, württembergischer Musiker, Feuerwerker und Fotograf († 1884) John McDougal, US-amerikanischer Politiker († 1866) Caroline Reinagle, englische Komponistin, Pianistin und Musiklehrerin († 1892) Gestorben Erstes Halbjahr 5. Januar: Marcello Bacciarelli, italienischer Maler des Barock (* 1731) 5. Januar: Christoph Bernhard Verspoell, katholischer Priester, Publizist und Kirchenlieddichter (* 1743) 8. Januar: Robert Bowie, US-amerikanischer Politiker (* 1750) 11. Januar: Johann David Wyss, Schweizer Autor (* 1743) 15. Januar: Matwei Platow, russischer General und Hetman der Don Kosaken (* 1753) 16. Januar: Heinrich Guttenberg, deutscher Kupferstecher (* 1749) 5. Februar: Karl XIII., König von Schweden und König von Norwegen (* 1748) 5. Februar: Alois von Reding, Schweizer Politiker und Militär (* 1765) 9. Februar: John Milledge, US-amerikanischer Politiker (* 1757) 13. Februar: George Rogers Clark, US-amerikanischer Pionier (* 1752) 15. Februar: Friedrich Ludwig Fürst zu Hohenlohe-Ingelfingen, preußischer General (* 1746) 17. Februar: Juan Rodríguez Ballesteros, spanischer Richter, Kolonialverwalter und Gouverneur von Chile (* 1738) 28. Februar: Anne Vallayer-Coster, französische Malerin (* 1744) 1. März: Jared Irwin, US-amerikanischer Politiker (* 1750) 3. März: Pascal Antoine Fiorella, französischer General korsischer Herkunft (* 1752) 8. März: Maurus Feyerabend, deutscher katholischer Geistlicher (* 1754) 11. März: Maria Luise Albertine zu Leiningen-Dagsburg-Falkenburg, Großmutter der preußischen Königin Luise (* 1729) 15. März: Karel Postl, tschechischer klassischer Landschaftsmaler, Zeichner und Graphiker (* 1769) 17. März: Johann Christoph Bathe, deutscher Rechtswissenschaftler (* 1754) 20. März: Johann Nikolaus Forkel, deutscher Musiker und Musikhistoriker (* 1749) 23. März: Nicolas Isouard, maltesischer Komponist (* 1775) 23. März: Johann Ferdinand Balthasar Stieffell, deutscher Orgelbauer (* 1737) 25. März: Henry Lee, US-amerikanischer Kavallerieoffizier, Generalmajor und Politiker (* 1756) 28. März: Antonio Capuzzi, italienischer Violinist und Komponist (* 1755) 29. März: Alexandre Sabès Pétion, Präsident von Haiti (* 1770) 29. März: Thomas Posey, US-amerikanischer Politiker, Gouverneur des Indiana-Territoriums (* 1750) 11. April: Carl Andreas Göpfert, deutscher Komponist (* 1768) 12. April: Barbara Schulthess, Zürcher Bürgerin, Freundin von Johann Wolfgang von Goethe und Johann Caspar Lavater (* 1745) 14. April: Robert Glutz von Blotzheim, Schweizer Schriftsteller und Journalist (* 1786) 16. April: Johann Georg Geib, deutscher Orgelbaumeister (* 1739) 18. April: Ernst Christian Trapp, erster deutscher Inhaber eines Lehrstuhls für Pädagogik (* 1745) 23. April: Wilhelm Leberecht Götzinger, deutscher lutherischer Theologe und Autor (* 1758) 25. April: George Armistead, US-amerikanischer Lieutenant Colonel (* 1780) 27. April: Christopher Greenup, US-amerikanischer Politiker (* 1750) 2. Mai: Herman Willem Daendels, niederländischer General und Generalgouverneur von Niederländisch-Indien (* 1762) 2. Mai: Alexander Graydon, amerikanischer Jurist, Schriftsteller und Militär (* 1752) 2. Mai: Friedrich von Wendt, deutscher Mediziner (* 1738) 7. Mai: Jean Cesar Godeffroy, deutscher Kaufmann (* 1742) 7. Mai: Leopold Koželuh, böhmischer Komponist (* 1747) 10. Mai: Paul Revere, US-amerikanischer Unabhängigkeitskämpfer (* 1735) 13. Mai: Michael Andreas Barclay de Tolly, russischer General und Kriegsminister (* 1761) 13. Mai: Louis V. Joseph, Fürst von Condé (* 1736) 13. Mai: Emanuel Merian, Schweizer evangelischer Geistlicher (* 1732) 14. Mai: Matthew Lewis, englischer Schriftsteller (* 1775) 18. Mai: Lemuel Benton, US-amerikanischer Politiker (* 1754) 26. Mai: Howell Cobb, US-amerikanischer Politiker (* 1772) 27. Mai: Blasius Bernauer, deutscher Orgelbauer (* 1740) 29. Mai: Johann Amadeus Franz von Thugut, österreichischer Staatsmann und Minister des Auswärtigen (* 1736) 3. Juni: Egwala Seyon, äthiopischer Kaiser seit 1801 6. Juni: Jan Henryk Dąbrowski, polnischer General (* 1755) 7. Juni: Emanuel Bardou, Schweizer Bildhauer (* 1744) 8. Juni: Franziska von Arnstein, österreichische Salonière (* 1758) 8. Juni: Fabio Asquini, italienischer Winzer und Agrarwissenschaftler (* 1726) 8. Juni: Henriette-Félicité Tassaert, deutsch-französische Pastell-Malerin und Schabkünstlerin (* 1766) 16. Juni: Ferdinand von Wintzingerode, russischer General (* 1770) 16. Juni: Daniel Smith, US-amerikanischer Landvermesser und Politiker (* 1748) 20. Juni: Hedwig von Schleswig-Holstein-Gottorf, Königin von Schweden und Norwegen (* 1759) 28. Juni: Henry Smith, US-amerikanischer Politiker (* 1766) 29. Juni: Karl Philipp Fohr, deutscher Landschaftsmaler der Romantik (* 1795) Zweites Halbjahr 1. Juli: Christian Ludwig Wilhelm Stark, deutscher evangelischer Theologe (* 1790) 18. Juli: Georg Carl von Bandel, preußischer Regierungsdirektor (* 1746) 21. Juli: François Rodolphe de Weiss, Schweizer Politiker, Schriftsteller und Offizier (* 1751) 28. Juli: Gaspard Monge, französischer Mathematiker und Physiker (* 1746) 21. August: James Lucas Yeo, britischer Marineoffizier (* 1782) 22. August: Warren Hastings, britischer Generalgouverneur in Britisch-Ostindien (* 1732) 30. August: Domingo Badía y Leblich, spanischer Forschungsreisender und Politiker (* 1767) 31. August: Arthur St. Clair, britisch-US-amerikanischer General und Politiker (* 1736) 4. Oktober: Josef Abel, österreichischer Maler (* 1764) 7. Oktober: David Stone, US-amerikanischer Politiker (* 1770) 8. Oktober: George Truitt, US-amerikanischer Politiker (* 1756) 22. Oktober: Joachim Heinrich Campe, deutscher Sprachwissenschaftler und Pädagoge (* 1746) 22. Oktober: Dennis Smelt, US-amerikanischer Politiker (* 1763) 25. Oktober: Joseph Freiherr von Aichen, österreichischer Diplomat und Jurist (* 1745) 26. Oktober: Ludwig Gotthard Kosegarten, Pastor der Kirche zu Altenkirchen auf Rügen und Schriftsteller (* 1758) 28. Oktober: Abigail Adams, US-amerikanische First Lady (* 1744) 28. Oktober: Henri Clarke d’Hunebourg, französischer General und Staatsmann (* 1765) 30. Oktober: Eberhard Ernst Gotthard von Vegesack, schwedischer General (* 1763) 1. November: Marie-Gabrielle Capet, französische Malerin (* 1761) 5. November: Heinrich Friedrich Füger, deutscher Maler (* 1751) 15. November: Salomon Hirzel, Schweizer Politiker und Historiker (* 1727) 17. November: Karl Gottlob Anton, deutscher Jurist, Politiker und Historiker (* 1751) 17. November: Sophie Charlotte von Mecklenburg-Strelitz, deutsche Prinzessin, Königin von Großbritannien und Hannover (* 1744) 26. November: Joseph Colloredo-Mels und Wallsee, Sohn des ersten Fürsten von Colloredo-Mels und Wallsee (* 1735) 26. November: Salomon Landolt, Schweizer Politiker (* 1741) 29. November: Johann Wilhelm Wolfgang Breithaupt, deutscher evangelischer Theologe und Lieddichter (* 1738) 1. Dezember: Carl Frederik von Breda, schwedischer Maler (* 1759) 8. Dezember: Karl Ludwig Friedrich, badischer Großherzog (* 1786) 14. Dezember: Johann Michael Hudtwalcker, Unternehmer, Aufklärer (* 1747) 15. Dezember: Joseph Ludwig Colmar, Bischof von Mainz (* 1760) 17. Dezember: Abdallah I. ibn Saud, Imam der Wahhabiten 19. Dezember: Richard Winn, US-amerikanischer Politiker (* 1750) 22. Dezember: Johann Alois Schneider, deutscher Bischof (* 1752) 25. Dezember: Catherine-Dominique de Pérignon, französischer Revolutionsgeneral, Marschall und Pair von Frankreich (* 1754) 27. Dezember: Ernst Platner, Anthropologe, Mediziner und Philosoph (* 1744) Genaues Todesdatum unbekannt Carl Adolph Schultze, Weimarer Bürgermeister und Hofadvokat (* 1758) Iwan Pratsch, tschechischer Komponist (* um 1750) Weblinks Digitalisierte Zeitungen des Jahres 1818 im Zeitungsinformationssystem (ZEFYS) der Staatsbibliothek zu Berlin
Q6964
493.490138
277205
https://de.wikipedia.org/wiki/Nildelta
Nildelta
Das Nildelta (altägyptisch Ta-Mehet) () stellt das Mündungsdelta des afrikanischen Nils dar. Dieses Flussdelta befindet sich in Unterägypten direkt nördlich (aus Flussperspektive gesehen unterhalb) von Kairo an der Küste des südöstlichen Mittelmeers. Der Nil legt vom Viktoriasee bis zur Mündung 5588 km zurück; von seiner weitest entfernten Quelle am Luvironza in Burundi sind es insgesamt 6852 km. Das Nildelta bildet das wohl bekannteste Mündungsdelta, weil es auch die Bezeichnung „Delta“ prägte, da es die charakteristische, aus dem griechischen Buchstaben Delta (Δ) abgeleitete Dreiecksform aufweist. Hintergrund Beschreibung Etwa 25 km nördlich von Kairo fächert sich der Nil zum etwa 24.000 km² großen Nildelta auf, nach dessen Durchfließen der Nil schließlich in das Mittelmeer mündet. Heute gibt es nur noch zwei Mündungsarme: den westlichen Rosette-Arm und den östlichen Damietta-Arm. Sie wurden nach den Städten Rosette und Damietta, die an ihren Mündungen liegen, benannt. Diese fruchtbarste Region Nordafrikas zählt etwa 60 Millionen Einwohner. In der Antike erfolgte die Benennung sowohl nach den Mündungsstädten (Kanopus, Bobitine, Pelusion) als auch nach Großstädten, die weiter südlich im Delta an den jeweiligen Armen lagen (Sais, Sebennytos, Mendes, Tanis). Dem griechischen Geschichtsschreiber Herodot zufolge gab es in der Antike des 6. und 5. Jahrhunderts v. Chr. fünf natürliche Mündungsarme (Historien, 2. Buch 17). Damals spaltete sich der Nil bei der Stadt Kerkasoros in drei Hauptarme auf: den östlichen Pelusischen Arm (Mündungsort: Pelusion, später nach Deltaerweiterung Ostium Pelusiacum) den mittleren Sebennytischen Arm (Mündungsort: Ostium Sebennyticum, heute verlandet) den westlichen Kanobischen Arm (Mündungsort: Kanopus (Kanobos), Ostium Canobicum, heute verlandet) Vom mittleren Sebennytischen Mündungsarm zweigten weitere Arme ab: der Saitische Arm der Mendesische Arm nach Osten (antiker Mündungsort: Ostium Mendesicum, verlandet) Zudem gab es laut Herodot zwei künstlich angelegte Mündungsarme: der Bolbitinische Arm (Mündungsort: Bolbitine, Ostium Bolbitinum, heute Rosette) der Bukolische oder Phatnische Arm nach Osten (antiker Mündungsort: Ostium Phatnicum oder Bucolicum, heute Damiette-Arm) Plinius der Ältere und Strabon (Geographie, 801) nennen übereinstimmend einen Phatnischen und einen Tanitischen Mündungsarm, kennen aber keinen Saitischen und keinen Bukolischen Arm. Der Saitische Arm, an dem Sais liegt, entspricht dem Bolbitinischen Arm, der Bukolische Arm dem Phatnischen Arm. Er erwähnte insgesamt sieben Arme (von Ost nach West), den Pelusi(aki)schen, Tanitischen, Mendesischen, Phatn(it)ischen (oder Phatmetischen), Sebennytischen, Bolbitinischen und Kanopischen (Kanobischen oder Herakleotischen) Arm beziehungsweise Nil. Es ist dabei zu beachten, dass Plinius und Strabon etwa 400 Jahre nach Herodot lebten, und Namensgebungen sich im Laufe der Zeit wandelten. Dazu kommt, dass das Nildelta durch das jährliche Hochwasser und die damit verbundene Schlammflut einem ständigen Wandel unterworfen war. So gab es zur Römerzeit sieben Hauptarme, von Westen nach Osten, es waren der: Kanobische Arm (Unterlauf ab Verzweigung vom Saitischen Arm, verlandet) Bolbitinische oder Saitische Arm (zweigt vom Kanobischen Arm ab, heute Rosette-Arm) Sebennytischen Arm (verlandet) Bukolische oder Phatni(ti)sche Arm (zweigt vom Sebennytischen Arm ostwärts ab, heute Damiette-Arm) Mendesische Arm (zweigt vom Phatnischen Arm ab, verlandet) Tanitische oder Sethroitische Arm (zweigt vom Phatnischen Arm ab, verlandet) Pelusische Arm (verlandet) Die Verlandung setzte bereits in der Antike ein und war in islamischer Zeit großteils abgeschlossen. Der Assuan-Staudamm und seine Auswirkung auf das Nildelta Durch die bereits von Muhammad Ali Pascha während seiner von 1805 bis 1848 dauernden Herrschaft über Ägypten begonnenen Umstellung der Bewässerungsmethoden am Nil von der saisonale Bewässerung in Überschwemmungsbassins auf die ganzjährige Kanalbewässerung und die dafür gebauten Delta Barrages sowie durch den Bau der Assuan-Staumauer, des Asyut-Stauwehrs und des Zifta-Stauwehrs (alle 1902 fertiggestellt) wurden die landwirtschaftlich bebauten und bewässerten Flächen erheblich vergrößert. Dadurch gelangte immer weniger Wasser und somit weniger Schwebstoffe und Sedimente in das Mittelmeer. Durch den von 1960 bis 1971 errichteten Assuan-Staudamm setzten sich die Sedimente (die nicht vorher schon vom Sannar-Damm und Roseires-Damm zurückgehalten wurden) in dem von ihm aufgestauten Nassersee ab. Dies hat zur Folge, dass dem Nildelta keine Sedimente mehr zugeführt werden und es sich nicht mehr weiter ins Meer vorschiebt, sondern langsam durch die Brandung abgetragen wird. Orte im oder am Nildelta (flussabwärts) Ungefähr 40 Millionen Menschen leben in der Region Nildelta. Außerhalb der Großstädte leben durchschnittlich etwa 1000 Menschen auf einem Quadratkilometer. Der Meeresspiegel des Mittelmeeres ist durch die globale Erwärmung seit Jahrzehnten stetig gestiegen. Moderne Orte Antike Stätten Literatur Emil Nack: Ägypten und der Vordere Orient im Altertum (= Bibliothek der alten Kulturen). Ueberreuter, Wien/ Heidelberg 1977, ISBN 3-8000-3141-8. Ian Wilson: The Exodus Enigma. Weidenfeld & Nicolson, London 1985, ISBN 0-297-78749-7. Das Nildelta in der Pharaonenzeit. (= Kemet 3/2006), Weblinks Deltakarte aus dem 19. Jahrhundert Exakte topografische Aufnahme des Nildeltas aus 18 der 45 Blätter der Carte topographique de l’Egypte 1818 (französisch) Einzelnachweise Landschaft in Afrika Gewässer in Ägypten Flussdelta Geographie (Altes Ägypten) Nildelta Küstenregion des Mittelmeeres Küste in Afrika
Q179528
92.127395
196469
https://de.wikipedia.org/wiki/Negride
Negride
Negride oder Negroide (lateinisch niger „schwarz“) ist eine nicht mehr gebräuchliche rassenkundliche Bezeichnung für eine Reihe dunkelhäutiger afrikanischer Bevölkerungen, die den überwiegenden Teil des afrikanischen Kontinentes (Subsahara-Afrika) mit Ausnahme Nordafrikas bewohnen. Auch Melaneside, Negritos und insbesondere Australide (australische Völker) wurden anfangs den Negriden zugeordnet. Bisweilen wurden sie als eigener „Rassenkreis“ behandelt und in späteren Theorien den Mongoliden zugeordnet. Die Einteilung negrid oder negroid ist völkerkundlich unbrauchbar, weil sie nach rein körperlichen Kriterien (→ Phänotypische Variation) eine angebliche Einheitlichkeit suggeriert. Teilweise wird als Synonym auch der Begriff Schwarze verwendet. Negride gehörten nach veralteten Rassentheorien neben Europiden und Mongoliden zu den drei grundlegend unterschiedlichen Großrassen. Die Klassifizierung als sogenannte „Großrasse“ erfolgte mehr oder weniger willkürlich anhand (augenfälliger) gemeinsamer Merkmale, von denen man annahm, sie belegten einen gemeinsamen Ursprung oder eine genetische Verwandtschaft. Molekularbiologische Daten zeigen jedoch eine Inhomogenität der als Negriden zusammengefassten Gruppe und widersprechen einer Einteilung in „Großrassen“. Als negrid wurden körperliche Merkmale wie eine wulstige Nase, krauses Haar und eine dunkel pigmentierte Haut angesehen. Der Gesichtsschädel des „typischen Negriden“ weist rundliche Augen- und Nasenhöhlen auf, ausgeprägte Kiefer und häufig einen langgestreckten Schädel. Die angeblich homogenen Eigenschaften der Negriden im Unterschied zu den anderen angenommenen „Menschenrassen“ wurde molekularbiologisch und bevölkerungsgenetisch eindeutig widerlegt. Jedes Gen hat seinen eigenen geographischen Verbreitungsschwerpunkt. Um die Existenz einer Rasse zu belegen, müssten die Verbreitungsschwerpunkte einer Vielzahl von Genen einer bestimmten Population weitgehend deckungsgleich und unterscheidbar von anderen Populationen sein. Es gibt jedoch keine einheitlichen geographischen Überschneidungen für alle Schwarzafrikaner (oder Äthiopier, Pygmäen, Khoisan usw.). Die äußerlichen Unterschiede zwischen den sogenannten „Negriden“ und anderen „Rassen“ repräsentieren lediglich einen sehr kleinen Teil der Erbanlagen, die auf die Anpassung an unterschiedliche Klimate zurückgehen. Rassensystematische Untergliederung Die Negriden wurden nach der Rassensystematik – die bis über die Mitte des 20. Jahrhunderts hinaus gebräuchlich war – in verschiedene „Kleinrassen“ untergliedert, deren Abgrenzung natürlich noch weitaus problematischer ist als die der drei „Großrassen“. Trotz der enormen Datenmengen über diverse körperliche Merkmale, die zur Rassenbestimmung zusammengetragen wurden, blieb die Beurteilung immer subjektiv, eurozentrisch und so dermaßen künstlich konstruiert, dass die Ergebnisse den vorher formulierten Erwartungen entsprachen. Die folgende Einteilung fand sich noch 1978 im Führer durch die anthropologische Schauausstellung des Naturhistorischen Museums Wien. Sudanide Verbreitung: offene Savannen des namengebenden Sudan, Guinea-Küste. Merkmale: stärkste Ausprägung der negriden Merkmale; mittelgroß, stämmig; langer, niedriger Kopf; ausladendes Hinterhaupt; mittelhohes, breites Gesicht; steile, in den seitlichen Konturen sich oft verjüngende Stirn; große, weite Lidspalte; sehr breite Nase mit geblähten Nasenflügeln; extrem breite Lippen mit besonders ausgeprägter Lippenleiste; stark vorstehender Oberkiefer (Prognathie); mittelgroßes, oft fliehendes Kinn; dunkelbraune bis schwarze Haut; braunschwarze Augen; schwarzes Kraushaar Nilotide Verbreitung: Sumpfgegenden des oberen Nil (Sudd, mit Überschwemmungsgebieten der Zuflüsse). Merkmale: sehr hochwüchsig, schlank, langbeinig; langer, schmaler Kopf; sehr stark ausladendes Hinterhaupt; rautenförmiges, hohes, schmales Gesicht; hohe, steile Stirn; große, mittelweite Lidspalte; schmale Nase mit geblähten Nasenflügeln; mäßig breite Lippen; vorstehender Oberkiefer (Prognathie) niemals vorkommend; markant profiliertes Kinn; dunkelbraune Haut; braunschwarze Augen; schwarzes Kraushaar. Viele Anklänge an die Äthiopiden. Äthiopide Verbreitung: Äthiopien, Ostafrika, Reste im ganzen nordafrikanischen Tropengürtel. Merkmale: Übergangsform von Europiden zu Negriden; hochwüchsig, schlank, kräftig; langer, schmaler, hoher Kopf; hohes schmales Gesicht; leicht betonte Jochbeine; hohe, steile, schmale Stirn; große Lidspalte; fast europid hohe, schmale Nase; breite Lippen; europid profiliertes Kinn; dunkel-rotbraune Haut; braunschwarze Augen; schwarzes Kraushaar. Von anderen Quellen bzw. Autoren (z. B. Carleton Coon) wurden die Einwohner des Horns von Afrika als Hamiten bezeichnet und nicht den Negriden, sondern den Europiden zugeordnet. (Siehe auch Darstellung aus Meyers Konversationslexikon.) Palänegride Verbreitung: Regenwaldzone Zentralafrikas. Merkmale: mittelgroß, langrumpfig, untersetzt; mittellanger bis kurzer, breiter Kopf; niedriges, breites, rautenförmiges Gesicht; steile, hohe, schmale Stirn; mäßig große Lidspalte; sehr breite, trichterförmige Nase mit flacher Nasenwurzel; sehr breite Lippen mit besonders ausgeprägter Lippenleiste; stark vorstehender Oberkiefer (Prognathie); niedriges, häufig fliehendes Kinn; dunkelbraune Haut; braunschwarze Augen; schwarzes Kraushaar. Kafride Verbreitung: südafrikanische Trockenwaldzone, Ost-Afrika. Merkmale: mittelgroß, kräftig; langer, schmaler, hoher Kopf; Hinterhaupt mäßig ausladend; niedriges, breites, weich gepolstertes Gesicht, bei den Männern rechteckig, bei den Frauen rundlich oval; leicht hervortretende Jochbeine; steile, gewölbte Stirn, Stirnhöcker ausgeprägt; kleine Lidspalte; mittelbreite, gerade Nase, mäßig geblähte Nasenflügel; breite Lippen; mäßig vorstehender Oberkiefer (Prognathie); profiliertes Kinn; hellere Haut als die übrigen Negriden; braunschwarze Augen; schwarzes Kraushaar. Bambutide (Pygmide) Verbreitung: Urwälder des Kongo, insbesondere am Ituri. Merkmale: zwerghafter Wuchs (Männer ca. 144 cm, Frauen ca. 137 cm), kindliche Proportionen: langer Rumpf, kurze Beine, großer Kopf; mittellanger, mittelbreiter Kopf; niedriges, breites, rundliches Gesicht; leicht vorstehende Jochbeine; steile, stark gewölbte Stirn; mittelgroße, weite Lidspalte; sehr breite, kurze Nase, sehr breite Nasenflügel, flache Nasenwurzel; mäßig breite Lippen mit konvexer Oberlippe; niedriges, leicht fliehendes Kinn; hellbraune Haut; dunkelbraune Augen; schwarzes, engspiraliges Haar (Filfil). Khoisanide Buschmänner Verbreitung: südafrikanische Trockengebiete, insbesondere die Kalahari. Merkmale: kleinwüchsig (Männer ca. 155 cm, Frauen ca. 150 cm), kindlich proportioniert; bei den Frauen häufig Fettsteiß (Steatopygie); bei beiden Geschlechtern sehr häufig dreieckiges, angewachsenes Ohrläppchen; langer, schmaler Kopf; mittelhohes, breites, sehr flaches Gesicht; hervortretende Jochbeine; steile, breite Stirn, ausgeprägte Stirnhöcker; enge, geschlitzte Lidspalte; häufig Mongolenfalte (überhängendes Oberlid); niedrige, breite Nase mit knopfartiger Nasenspitze, extrem flache Nasenwurzel; mäßig breite Lippen mit konvexer Oberlippe; kleines, mäßig fliehendes Kinn; ledrige, gelblich-braune Haut; dunkelbraune Augen; schwarzes, engspiraliges Haar (Filfil). (Anmerkung: Nach modernen genetischen Erkenntnissen zweigte die Abstammungslinie der heute als San bezeichneten Bevölkerungsgruppe schon vor mindestens 100.000 Jahren von jenen der „schwarzafrikanischen“ Populationen ab.Erna van Wyk: eurekalert.org, University of the Witwatersrand, 20. September 2012. Abgerufen am 15. Oktober 2012 (PHP; englisch).wbr: Khoi-San: Genforscher studieren ältestes Volk der Welt. Spiegel Online, 21. September 2012. Abgerufen am 21. September 2012. Das gilt auch für die im folgenden „Hottentotten“ genannten Khoikhoi.) Khoisanide Hottentotten Verbreitung: südafrikanische Trockengebiete, Teil des Kaplandes. Merkmale: kleinwüchsig, etwas größer als die Buschmänner; bei den Frauen fast immer Fettsteiß (Steatopygie); langer, mittelbreiter Kopf; mittelhohes, breites, rautenförmiges, flaches Gesicht; leicht hervortretende Jochbeine; steile, breite Stirn, ausgeprägte Stirnhöcker; enge, geschlitzte Lidspalte; häufig Mongolenfalte (überhängendes Oberlid); niedrige, breite Nase mit knopfartiger Spitze, flache Nasenwurzel; mäßig breite Lippen; kleines, spitzes, mäßig fliehendes Kinn; ledrige, gelblich-braune Haut; dunkelbraune Augen; schwarzes, engspiraliges Haar (Filfil). Literatur Luigi Luca Cavalli-Sforza, P. Menozzi, A. Piazza: The history and geography of human genes. Princeton, New Jersey: Princeton University Press 1994 (englisch; Darstellung aus neodarwinistischer Sicht). Susan Arndt (Hrsg.): AfrikaBilder. Studien zu Rassismus in Deutschland. Unrast Verlag, Münster 2001, 2006, ISBN 3-89771-407-8. Susan Arndt und Antje Hornscheidt (Hrsg.): Afrika und die deutsche Sprache. Ein kritisches Nachschlagewerk. Unrast Verlag, ISBN 3-89771-424-8. U. Bitterli: Die „Wilden“ und die „Zivilisierten“. Die europäisch-überseeische Begegnung. dtv, München 1982. F. Böckelmann: Die Gelben, die Schwarzen und die Weißen. Eichborn Verlag, Frankfurt am Main 1999. Erwin Ebermann (ed.).: Afrikaner in Wien: zwischen Mystifizierung und Verteufelung. LIT-Verlag. 2003. ISBN 3-8258-5712-3. Grada Kilomba-Ferreira: Die Kolonisierung des Selbst – der Platz des Schwarzen. In: Hito Steyerl, Encarnación Gutiérrez Rodríguez (Hrsg.): Spricht die Subalterne deutsch? Migration und postkoloniale Kritik. Unrast Verlag, Münster 2003, ISBN 3-89771-425-6. Grada Kilomba-Ferreira: „Don't You Call Me Neger!“ – Das N-Wort, Trauma und Rassismus. In: ADB & cyberNomads (Hrsg.): TheBlackBook. Deutschlands Häutungen. IKO Verlag, Frankfurt am Main, London 2004. P. Martin: Schwarze Teufel, edle Mohren. Hamburger Edition, Hamburg 2001. K. Oguntoye, M. Opitz, D. Schultz (Hrsg.): Farbe bekennen. Afro-deutsche Frauen auf den Spuren ihrer Geschichte. 2. Auflage, Orlanda, Berlin 1991, ISBN 3-922166-21-0. Weblinks Einzelnachweise Afrikanistik Rassismus Rassentheorie Biologische Anthropologie he:שחורים
Q338460
90.629572
1132218
https://de.wikipedia.org/wiki/Knospe
Knospe
In der Botanik ist Knospe (genannt auch Auge, lateinisch oculus, und lateinisch Gemma, woraus der Begriff Gemme herrührt) der jugendliche Zustand eines Sprosses, in dem dessen Stängelglieder noch ganz kurz, die Blätter daran noch dicht zusammengedrängt und in ihrer Entwicklung ebenfalls noch wenig fortgeschritten sind. Jeder in der Fortbildung begriffene Spross, also jeder Stamm und jeder Zweig, endet daher in einer Knospe, genannt Gipfel-, Haupt-, End- oder Terminalknospe. Bei vielen Pflanzen bilden sich aber auch an der Seite des Stängels und zwar in den Achseln der Blätter regelmäßig Anlagen neuer Sprosse (Seiten- oder Achselknospen, lateinisch Gemmae laterales sive axillares). Stellung und Verteilung Die Verteilung der Knospen am Stängel ist lediglich durch die Blattstellung bedingt, und das Blatt, das die Knospe in seiner Achsel trägt, heißt ihr Trag-, Stütz- oder Mutterblatt. Meistens steht nur eine einzige Knospe in der Blattachsel, doch finden sich z. B. bei Lonicera noch eine oder mehrere unmittelbar über derselben; diese nennt man Neben- oder Beiknospen (Gemmae accessoriae). Die Achselknospen bedingen die normale Verzweigung des Stängels, weil jede zu einem neuen Zweig erwächst; darum ist auch die Stellung der Zweige von der Blattstellung des Muttersprosses abhängig, und folglich bleiben Stämme, die keine Seitenknospen entwickeln, auch unverzweigt (Palmen, Baumfarne). Andererseits schlägt auch bei manchen Pflanzen regelmäßig die Gipfelknospe fehl, und es übernimmt die zunächst darunter stehende Seitenknospe, die dann leicht mit einer wahren Endknospe verwechselt werden kann, die Fortsetzung des Zweigs. Dies kommt besonders bei Holzgewächsen (Linde, Ulme, Hainbuche, Gemeine Hasel) vor; bei Flieder (Syringa) und Pimpernuss (Staphylea) endigt der gipfelknospenlose Zweig mit zwei gegenständigen Seitenknospen. Eigentliche Gipfelknospen haben z. B. Eiche, Rosskastanie, Pappel, Ahorn (Figur l) und Obstbäume. Je nach der Art des Sprosses, zu dem sich eine Knospe entwickelt, unterscheidet man: Blattknospen (Gemmae follipara), wenn sie zu einem nur mit Blättern versehenen Spross werden, Tragknospen oder Fruchtaugen (Gemmae floripara), wenn sie einen blütentragenden Spross hervorbringen, und Blütenknospen (Gemmae florales s. Alabastra), die noch unentfaltete Blüte. Bei allen Seitenknospen entsteht der Vegetationspunkt an der Oberfläche des Muttersprosses und zwar schon in der frühsten Periode, kurz nach oder fast gleichzeitig mit der Anlage des Tragblattes, wenngleich die vollständige Erstarkung der Knospe in ein späteres Alter des Sprosses fällt. Die so genannten zufälligen oder Adventivknospen (Gemmae adventitiae) bilden sich dagegen immer nur an schon entwickelten, oft ganz alten Pflanzenteilen, sind in ihrer Stellung ganz regellos, indem sie bald mehrzerstreut, bald haufenweise zum Vorschein kommen, wie besonders an alten Baumstämmen (Stockausschlag), und entstehen dann stets im Innern und zwar in der Kambiumschicht, so dass sie also die Rinde durchbrechen. Sie treten auch an den obersten, horizontal an der Bodenoberfläche hinlaufenden Wurzeln auf und bedingen dann einen Wurzelausschlag (Pappeln, Schlehen, Essigbaum, Sauerkirschen und auch bei manchen krautigen Pflanzen, wie Taraxacum, Gänsedisteln (Sonchus) u. a.); sogar auf Blättern entstehen sie bisweilen, besonders wenn dieselben in feuchte Erde gesteckt werden, wie bei den Begonien, den Hyazinthenblättern u. a., oder auch an nicht abgelösten Blättern, wie bei Cardamine. Aufbau An jeder Knospe unterscheidet man die Knospenachse, das heißt den noch ganz verkürzten Stängelteil, und die an dieser sitzenden, noch dicht aufeinander liegenden Blattorgane. Bei den Winterknospen unserer Holzgewächse sind die letzteren meist schuppenförmig, von mehr oder minder lederartiger Beschaffenheit und oft dunkler Farbe. Sie bedecken meist die Knospe vollständig und gewähren den zarteren, inneren Teilen einen Schutz gegen die Einflüsse der winterlichen Witterung (Knospendecken, Tegumenta; Knospenschuppen, Squamae s. Perulae); nach innen gehen sie in der Gestalt und Ausbildung allmählich in die Laubblätter über, die in der Knospe schon angelegt sind. Knospen, die keine Knospendecken besitzen und nur von den äußersten Laubblättern bedeckt sind, heißen nackte (Gemma nuda), z. B. beim Blutroten Hartriegel (Cornus sanguinea), Wolligen Schneeball (Viburnum lantana) und beim Faulbaum (Rhamnus frangula). Häufig sind die äußeren Blattorgane der Knospe mit einem Überzug bekleidet, der den Schutz vor äußeren Einflüssen erhöht. So finden sich Haarbildungen (Gemma pubescens), noch häufiger ein klebriges, aus Harz oder Harz und Gummi bestehendes Sekret, das die Knospenschuppen miteinander verklebt und sie überzieht (Gemma glutinosa). Sowohl die Art, wie sich die Blätter der Knospe gegenseitig decken (Deckung, Ästivation), als auch die Lage des einzelnen Blattes in der Knospe (Knospenlage, Vernation) zeigen wichtige Eigentümlichkeiten. Siehe auch Edelauge Knospendeckung Weblinks Knospen-Bilder aus dem Bildarchiv der Universität Basel Video Was steckt in einer Knospe? auf www.forstcast.net Anmerkungen Pflanzenmorphologie Blüte
Q189838
137.775105
3839713
https://de.wikipedia.org/wiki/%C3%9C
Ü
Das Ü (kleingeschrieben ü) ist ein Buchstabe des lateinischen Schriftsystems. Es besteht aus einem U mit Trema und ist im deutschen und mehreren weiteren Alphabeten ein Umlautgraphem. In einigen romanischen Sprachen kennzeichnet das Trema eine besondere, meist getrennte Aussprache des U. In der Umlaut-Bedeutung wurde das Ü erst als UE geschrieben. Später entwickelte sich daraus ein U mit einem kleinen E darüber (Uͤ /uͤ). Dieses E wurde mit der Zeit zu zwei Punkten stilisiert. Im deutschen Alphabet ist das Ü enthalten. Es kann sowohl als ein langes Ü wie in Lüge oder Hüte (IPA: ) als auch als ein kurzes Ü wie in Lücke oder Hütte (IPA: ) ausgesprochen werden. Die Aussprache als kurzes geschlossenes Ü (IPA: ) kommt im Deutschen nur in Fremdwörtern wie Xylophon vor. Das Fingeralphabet für Gehörlose bzw. Schwerhörige stellt den Buchstaben Ü dar, indem die geschlossene Hand vom Körper weg zeigt und Zeige- und Mittelfinger zusammen nach oben weisen. Der Daumen liegt auf den Fingern der Handfläche und die Hand führt eine kurze Bewegung nach unten aus. Das Ü ist ein typischer Buchstabe der Turksprachen, dort kommt er in praktisch allen Lateinalphabeten als eigener Buchstabe vor (so z. B. im Türkischen) und steht für den Laut []. Das Ү ist die Entsprechung des Ü in Turksprachen, die mit dem kyrillischen Alphabet geschrieben werden, in der arabischen Schrift ist es je nach Sprache das , oder . In den chinesischen Umschriften Pinyin, Langjin Pin'in und Wade-Giles steht das Ü ebenfalls für den Laut [], dieser kommt z. B. in den Worten 玉 (Jade) und 雨 (Regen, regnerisch) vor. In Pinyin wird meistens aufgrund der Einfachheit U geschrieben, außer wenn es zu Verwechslungen kommen kann, in welchem Falle Ü geschrieben wird. In Wade-Giles ist die Verwendung des Ü hingegen obligatorisch. Da auf chinesischen Tastaturen keine Taste Ü existiert, wird stattdessen meistens das V verwendet, welches bei den Pinyin nicht verwendet wird. Im estnischen Alphabet bezeichnet der Vokal ü ein kurzes ü (IPA: ), üü hingegen ein langes (IPA: ) oder überlanges (IPA: ) ü. Im Skoltsamischen, Schwedischen und Finnischen wird das ü alphabetisch identisch mit dem y einsortiert. In einigen romanischen Sprachen wie Französisch, Katalanisch und Spanisch steht das Trema auf dem U zur Kennzeichnung dafür, dass es in Kombinationen wie Güell, Güímar oder Salaün abweichend von den üblichen Ausspracheregeln einzeln ausgesprochen wird. Darstellung auf dem Computer Unicode enthält das Ü/ü an den Codepunkten U+00DC (Großbuchstabe) und U+00FC (Kleinbuchstabe). Dieselben Stellen belegt es in ISO 8859-1. In TeX kann man das Ü im Textsatz mit den Befehlen \"U und \"u sowie im grafischen Satz mit \ddot U und \ddot u einfügen. Mit dem Paket german.sty oder mit dem Paket babel vereinfacht sich die Eingabe der deutschen Umlaute zu "a, "o und "u. Durch Angabe einer passenden Option zum Paket inputenc ist es auch möglich, die Umlaute im Textmodus direkt einzugeben. In groff lässt sich das Ü mit \[:U] und das ü mit \[:u] erzeugen. In HTML gibt es die benannten Zeichen &Uuml; für das große Ü und &uuml; für das kleine ü. Unter Windows kann man das große Ü auch durch die Kombination +, das kleine ü durch die Kombination + eingeben. Bei der automatischen Texterkennung, vor allem ohne spezielle Unterstützung, wird es oftmals als ii erkannt. Das alte deutsche Uͤ/uͤ kann mit U+0364 COMBINING LATIN SMALL LETTER E (Unicodeblock Kombinierende diakritische Zeichen – &#x0364; dem jeweiligen Buchstaben nachgestellt) gesetzt werden. Personennamen mit ü Personen mit Sonderzeichen im Namen haben häufig Probleme, da viele elektronische Systeme diese Zeichen nicht verarbeiten können und man auf Umschreibungen (z. B. ae, oe, ue, ss) ausweichen muss. Gerade in Personalausweisen und Reisepässen ist der Name dann in zweierlei Weise geschrieben, einmal richtig und in der maschinenlesbaren Zone (MRZ) mit Umschrift, was besonders im Ausland für Verwirrung und Verdacht auf Dokumentenfälschung sorgt. Österreichische Ausweisdokumente können (müssen aber nicht) eine Erklärung der deutschen Sonderzeichen (auf Deutsch, Englisch und Französisch, z. B. ü entspricht / is equal to / correspond à UE) beinhalten. Das deutsche Namensrecht (Nr. 38 NamÄndVwV) erkennt Sonderzeichen im Familiennamen als Grund für eine Namensänderung an (auch eine bloße Änderung der Schreibweise, z. B. von Müller zu Mueller, gilt als solche). Am 1. Oktober 1980 stellte das Bundesverwaltungsgericht noch einmal fest, dass die technisch bedingte fehlerhafte Wiedergabe von Sonderzeichen auf elektronischen Systemen ein wichtiger Grund für die Änderung des Familiennamens sein kann (der Kläger wollte die Schreibweise seines Namens von Götz in Goetz ändern, war aber damit zunächst beim Standesamt gescheitert; Aktenzeichen: 7 C 21/78). Weblinks U¨
Q14287
92.988143
78300
https://de.wikipedia.org/wiki/Hokuriku
Hokuriku
Hokuriku (jap. , -chihō, dt. „Region Nordland“) ist eine Teilregion der japanischen Region Chūbu. Sie umfasst den Teil der Region, der dem Japanischen Meer zugewandt ist. Die Region umfasst die Präfektur Fukui, die Präfektur Ishikawa und die Präfektur Toyama. Die Grenzen sind nicht klar festgelegt, viele zählen auch noch Niigata dazu. Andernfalls bilden Niigata und Nagano die Region Shin’etsu, das dann mit Hokuriku die Region Hokuriku-Shin’etsu bzw. kurz Region Hokushin’etsu bildet. Hokuriku deckt sich im Wesentlichen mit der historischen Region Hokurikudō des Gokishichidō-Systems bzw. der davor bestehenden Provinz Koshi. Weblinks Region in Asien Region in Japan Chūbu
Q381025
117.460328
227944
https://de.wikipedia.org/wiki/Preprint
Preprint
Ein Preprint, auch Vorab-Publikation ist eine wissenschaftliche Publikation, die zwar schon der (Fach-)Öffentlichkeit zur Verfügung gestellt, aber noch nicht in einem Peer-Review-Verfahren begutachtet wurde. Beschreibung Als Preprint bezeichnet man einen in Manuskriptform veröffentlichten wissenschaftlichen Beitrag. Im Gegensatz zum Postprint hat dieser noch kein Begutachtungsverfahren (z. B. Peer-Review) einer Fachzeitschrift oder eines Verlages durchlaufen. Bei dieser Definition spielt es keine Rolle, ob das Manuskript bereits bei einem Verlag eingereicht bzw. zur Begutachtung zugelassen wurde oder nicht. Allerdings verweigern manche Verlage die Veröffentlichung von bereits als Preprint zugänglichen Artikels im Verlagsvertrag. Ein Preprint eines Artikels unterscheidet sich in der Regel nicht nur im Layout von der Verlagsversion, sondern auch inhaltlich von der veröffentlichten, da im Begutachtungsprozess geforderten Änderungen noch nicht enthalten sind. Preprints werden üblicherweise auf Preprintservern öffentlich zur Verfügung gestellt. Bedeutung für die Wissenschaftskommunikation Durch die Veröffentlichung von Preprints wird die Geschwindigkeit erhöht, mit der Forschungsergebnisse in der wissenschaftlichen Welt verbreitet werden. Einerseits ermöglicht dies kritisches Feedback von anderen Forschungsgruppen zur geleisteten Arbeit, ehe diese den formalen Begutachtungsprozess des Verlags durchläuft. Zum anderen kann die Wissenschaftsgemeinschaft auf den veröffentlichten Daten im Idealfall aufbauen und dadurch die eigene Forschungsarbeit schneller vorantreiben. In manchen Wissenschaftsdisziplinen ist das Veröffentlichen von Preprints ein gängiger Teil der Publikationskultur, wie etwa in der Physik. Hier werden Beiträge oft parallel zur Manuskripteinreichung innerhalb der Community diskutiert oder auf Preprintserver wie etwa arXiv hochgeladen. Das zunehmende Aufkommen von fachspezifischen Preprintservern wie etwa bioRxiv, ChemRxiv oder medRxiv legt nahe, dass in den letzten Jahren zumindest auch in anderen Naturwissenschaften die Bereitschaft steigt, Preprints zu veröffentlichen. In den Sozialwissenschaften sind Preprints bisher weniger verbreitet als in den Naturwissenschaften, jedoch existieren durchaus explizit sozialwissenschaftliche Preprintserver wie SocArXiv. Im Zuge der COVID-19-Pandemie wurde eine Vielzahl von Preprints veröffentlicht, um Forschungsergebnisse über die Krankheit und das Virus SARS-CoV-2 so schnell und frei wie möglich weltweit zur Verfügung zu stellen. Der Virologe Christian Drosten betonte im März 2020 die Wichtigkeit von Preprint-Veröffentlichungen für die epidemiologische Forschung, mahnte aber gleichzeitig zur Vorsicht bei der Auswahl und Bewertung dieser Publikationen. Die freie Verfügbarkeit von Forschungsergebnissen in Form von Preprints kann zudem der Verbreitung von Fake News und Verschwörungserzählungen Vorschub leisten, die vor allem über Social Media verbreitet werden. Ein Prinzip dieser Verbreitung wird als „Clickbait Science“ beschrieben. Die geringe Qualitätskontrolle seitens der Preprintserver und der Wettbewerb um Aufmerksamkeit auf den Plattformen kann Wissenschaftler dazu verleiten, in Titeln und Abstracts ihrer Preprints reißerische oder unpräzise Begriffe zu verwenden. Der Interpretationsspielraum dieser Begriffe erlaubt es dann wiederum Verschwörungserzählern, die Preprints in ihre Narrative einzuflechten. Autoren der Fachzeitschrift Science warnten im April 2020 vor einer zunehmenden Aushöhlung von Qualitätsstandards durch die wissenschaftliche Ausnahmesituation im Zuge der COVID-19-Pandemie. Hierfür seien insbesondere voreilig publizierte und oft unausgereifte klinische Studien zum Thema verantwortlich, die unter anderem massenweise auf Preprintservern landeten. Befürworter des Veröffentlichens auf Prepintservern verweisen allerdings darauf, dass sich auch in der begutachteten Fachliteratur problematische Artikel finden, die später zurückgezogen werden (siehe auch Betrug und Fälschung in der Wissenschaft). So fand ein indisches Autorenteam im Juli 2022 heraus, dass die Zahl der zurückgezogenen begutachteten Fachartikel zur COVID-19-Pandemie mehr als dreimal so groß ist wie die der zurückgezogenen Preprints. Weblinks Einzelnachweise !Preprint Bibliothekswesen Wissenschaftspraxis
Q580922
112.646592
4303345
https://de.wikipedia.org/wiki/Brot
Brot
Brot (von althochdeutsch prōt, von urgermanisch *brauda-) ist ein traditionelles Nahrungsmittel, das aus einem Teig aus gemahlenem Getreide (Mehl), Wasser, einem Triebmittel und meist weiteren Zutaten gebacken wird. Brot zählt zu den Grundnahrungsmitteln. Bestandteile Das feste, dunkle Äußere des Brotes heißt Kruste oder Rinde. Sie enthält Röstaromen, die durch die Maillard-Reaktion beim Backen entstehen. Durch Einschneiden der Brotoberfläche vor dem Backprozess oder durch das zufällig Aufreißen beim Gehen ergeben sich in der Kruste Ausbünde, die die Oberfläche des gebackenen Brotes vergrößern. Die Dicke der Kruste ergibt sich aus der Backdauer, und ihre Farbe ergibt sich aus der Backtemperatur. Das weiche, lockere Innere des Brotes ist die Krume. Sie enthält je nach Brotsorte mehr oder weniger Poren mit regelmäßiger oder unregelmäßiger Größe, die beim Gären entstanden sind, und gegebenenfalls weitere Bestandteile, wie zum Beispiel ganze Getreide- oder Saatkörner. Die Krume kann eher luftig und leicht oder aber auch kompakt und saftig sein. Brotkrümel heißen auch Brosamen (aus dem Mittelhochdeutschen) oder Brösel. Die meisten Brotteige können auch in Form kleinerer, etwa handtellergroßer Portionen als Brötchen gebacken werden. Zusammensetzung Der zu backende Teig besteht aus Mehl, Salz, Wasser und Triebmittel, wie Backhefe und Sauerteig. Für die verschiedenen Varianten können alle möglichen Lebensmittel dem Teig zugesetzt werden, z. B. geraspeltes Gemüse, Kartoffeln, Nüsse und Samen, Röstzwiebeln, getrocknete Früchte, Gewürze und vieles mehr. Die Definition für Brot nach den „Leitsätzen für Brot und Kleingebäck“ des Deutschen Lebensmittelbuches lautet: 1,5 kg Roggenmischbrot entstehen aus ca. 1 kg Mehl, 850 ml Wasser und 30 g Salz (ca. 4 TL). Beim Backen verliert das Brot etwa zehn Prozent Gewicht. Weißbrot weist sowohl an der Brotkruste, als auch an der Brotkrume charakteristische Gerüche auf. Diese entstehen durch das Zusammenspiel unterschiedlicher Verbindungen. Regelungen für die Verwendung von Zusatzstoffen Konservierungsstoffe wie Propionsäure oder Sorbinsäure und deren Salze können zur längeren Haltbarmachung verwendet werden – sind aber nur bei abgepacktem Schnittbrot erlaubt. Dann müssen sie aber auf der Packung deklariert werden. Das ist der Grund, warum die Industrie weitgehend auf deren Einsatz verzichtet. Färbende Zusätze, die eine dunklere Mehltype vorzutäuschen sollen, sind ebenfalls nicht gestattet. Erlaubte Zusatzstoffe Wichtigstes Mehlbehandlungsmittel ist die Ascorbinsäure (Vitamin C). Der Zusatz geringer Mengen (üblicherweise 1–3 g auf 100 kg Mehl) bewirkt bereits eine Steigerung des Gebäckvolumens durch Zunahme an Dehnwiderstand und Gärstabiliät sowie eine Verringerung der Dehnbarkeit des Teiges. Ascorbinsäure wird aber bereits häufig in der Getreidemühle zugesetzt. Sie dient der Mehlreifung, damit das Mehl nicht so lange lagern muss, bis es verarbeitet werden kann. Als Lebensmittelzusatzstoffe können Mono- und Diglyceride von Speisefettsäuren (MDG) zur Erhöhung der Wasserbindungsfähigkeit eingesetzt werden. Diacetylweinsäureglyceride verteilen das Wasser besser im Teig und sorgen für ein besseres Gashaltevermögen, eine bessere Gärtoleranz und ein größeres Volumen. Milchsäureester von MDG erhöhen die Porenbildung, so dass mehr CO2-Gas gehalten werden kann und das Volumen steigt. Acetate werden als Säuerungsmittel zur Geschmacksverbesserung und zur Krustenbildung eingesetzt. Als Ersatz für herkömmlichen Sauerteig kann Teigsäuerungsmittel (mit Milchsäure besprühtes Mehl) für kostengünstigere Produkte eingesetzt werden, dann ist aber die Zugabe von Backhefe als Triebmittel nötig. Auch Quellmehle oder modifizierte Stärken werden zum Teil beim Brotbacken verwendet. „Modifiziert“ bedeutet „verändert“. Die Stärken werden hierbei vorgequollen, um wie auch bei den Quellmehlen die Wasserbindefähigkeit des Teiges und damit die Frischhaltung zu verbessern. Sie werden in der Lebensmittelindustrie als Emulgatoren bzw. als Mehlbehandlungsmittel eingesetzt. Ihre Wirkung besteht in einer besseren Verteilung von Wasser im Teig, einem besseren Gashaltevermögen, einer besseren Gärtoleranz und einem größeren Volumen der Brote und Brötchen. Weiterhin wird ein Festkleben des Teigs am Metall der Knetmaschine vermieden. Es ist in der EU als Lebensmittelzusatzstoff der Bezeichnung E 472e ohne Höchstmengenbeschränkung (quantum satis) für Lebensmittel allgemein zugelassen. Der als Mehlbehandlungsmittel am häufigsten eingesetzte Emulgator ist der Diacetylweinsäureester (DAWE). Eine Studie der Universität Hohenheim fand, dass bei industriell hergestelltem Brot durch eine kurze Gehzeit (meiste eine Stunde) ein hoher Anteil an FODMAP-Kohlenhydraten vorhanden ist. Der hohe Anteil an FODMAP-Kohlenhydraten in solchem Brot verursacht dann Blähungen. Das ist besonders bei Darmerkrankungen wie dem Reizdarmsyndrom problematisch. Während in der traditionellen Brotherstellung der Teig mehrere Stunden geht ("Gehzeit" oder „Teigführung“), gehen gerade Industriebrote deutlich kürzer, meist nur eine Stunde. Eine ausreichend lange Gehzeit ist jedoch wichtig, um die unverdaulichen FODMAP-Kohlenhydrate abzubauen. Einige Mehle (beispielsweise Dinkel, Emmer und Einkorn) enthalten zwar weniger FODMAPs, jedoch ist der Unterschied zwischen den Getreidesorten verhältnismäßig gering (zwischen 1 und 2 Gewichtsprozent). Stattdessen lassen sich 90 % der Beschwerden verursachenden FODMAPs während einer Gehzeit von 4 Stunden abbauen. In der Untersuchung wurden Vollkorn-Hefeteige nach verschiedenen Gehzeit untersucht; der höchste Gehalt an FODMAPs war jeweils nach einer Stunde vorhanden und nahm anschließend ab. Die Studie zeigt also, dass im Wesentlichen die Backtechnik und nicht die Getreidesorte entscheidet, ob ein Brot gut verträglich ist oder nicht. Eine bessere Verträglichkeit von Brot aus Urgetreide lässt sich daher auch nicht mit dem Urgetreide selbst erklären, sondern dass beim Verbacken von Urgetreide in der Regel traditionelle, handwerkliche Backtechniken eingesetzt werden, die eine lange Teigführung mit umfassen. Die Untersuchung zeigte zudem, dass eine lange Teigführung zudem unerwünschte Phytate besser abbaut, sich die Aromen besser entfalten und das fertige Brot mehr biologisch zugängliche Spurenelemente enthält. Brotsorten Eine grobe Einteilung der Brotsorten geschieht zunächst nach den verwendeten Mahlerzeugnissen. Die beiden Hauptgruppen bestehen aus Weizen- und Roggenmahlerzeugnissen. Daneben gibt es auch eine Reihe von geografischen Bezeichnungen („Gattungsbezeichnungen“), wie z. B. Friesisches Weißbrot, Paderborner Brot, Frankenlaib oder Berliner Landbrot. Sie dürfen überall hergestellt und angeboten werden. International gilt Deutschland als das Land, in dem die meisten Brotsorten gebacken werden. Grund hierfür ist einerseits die Getreidevielfalt, die aufgrund von Anbaubedingungen im Gegensatz zu anderen Ländern nicht nur Weizen umfasst, sondern auch Roggen (z. B. in Norddeutschland) oder Dinkel (z. B. schwäbische Alb). Ein weiterer Grund der Brotvielfalt ist die Kleinstaatlichkeit vergangener Zeiten, die es so in anderen, vorwiegend zentralistisch geprägten Ländern nicht gab und zu unterschiedlichen Backkulturen in den einzelnen Ländern Deutschlands führte. Auch die Qualifikation und Kreativität der deutschen Bäckermeister – ein Ausbildungsgang, den es in anderen Ländern nicht gibt – trägt zur weltweit einzigartigen deutschen Brotkultur bei. Der Zentralverband des Deutschen Bäckerhandwerks erfasst die deutschen Brotvielfalt in einem Online-Brotregister, mit dem Ziel, das 2014 vergebene Gütesiegel als „Immaterielles Kulturerbe“ zu erhalten. Von den geschätzt ca. 3200 verschiedenen Brotsorten sind 2.944 (Stand: 1. Juni 2022) verschiedene Brotsorten anerkannt worden. Die am häufigsten verzehrte Brotsorte im deutschsprachigen Raum ist Mischbrot, das aus einer Mischung von Roggen- und Weizenmehl gebacken wird, während in den Mittelmeerländern fast ausschließlich Weizenbrote verzehrt werden. In Frankreich werden traditionell Weizenbrote gegessen. Bekannt sind Baguettes und Croissants als Frühstücksgebäcke. In den Bäckereien wird mehrmals täglich gebacken, da Weißbrote nicht lange frisch bleiben. Brotformen Handwerkliche Herstellung Geschichte Spätestens ab der mittleren Altsteinzeit wurden wilder Hafer und Gerste zu Mehl vermahlen und wahrscheinlich gewässert und gekocht oder gebacken, um das Mehl genießbar zu machen. Am Fundplatz Shanidar, einer von Neanderthalern bewohnten Höhle im Nordirak, wurden über 40.000 Jahre alte Spuren von Wildgerste gefunden, die offenbar erhitzt worden waren. In der Grotta Paglicci in Süditalien fand man über 30.000 Jahre alte Spuren von Gräserstärke an Mörsergeräten. Auch nördlich der Alpen wurden bereits vor 30.000 Jahren Wildpflanzen gemahlen, wie Funde aus Russland und Tschechien belegen. In Ohalo II in Israel wurden 20.000 Jahre alte Sichelklingen gefunden und es wurde Weizen und Gerste nachgewiesen. Wahrscheinlich wurde das Wildgetreide zu Mehl vermahlen und auf den vor den Hütten gefundenen flachen Steinen zu Fladen gebacken. Die mit einem Alter von 14.400 Jahren bisher ältesten Reste von wohl ungesäuertem Brot wurden in der Natufien-Siedlung Shubayqa 1 im Nordosten Jordaniens gefunden. Dabei handelt es sich um verkohlte Brotreste aus wildem Getreide (Einkorn), Strandbinsen und Wurzeln, die an alten Feuerstellen ausgegraben wurden. Damit wurde nachgewiesen, dass das Brotbacken mindestens rund 4.000 Jahre vor Entwicklung der Landwirtschaft und des Getreideanbaus entwickelt wurde. Vor ca. 10.000 Jahren begann der Mensch dann mit dem systematischen Anbau von Getreide zur eigenen Ernährung. Ursprünglich wurde das Getreide gemahlen und mit Wasser vermengt als Brei gegessen. Später wurde der Brei auf heißen Steinen oder in der Asche als Fladenbrot gebacken. Vermutlich sind gebackene Fladen schon frühzeitlichen, nomadischen Völkern bekannt gewesen. Aus wildem Getreide und anderen Zutaten gekochter Brei wurde auf heißen Steinen getrocknet und war so haltbar und transportierbar. Zwei Erfindungen haben das Brotbacken entscheidend verändert: Die eine war der Bau von Backöfen. Auf den Steinen lassen sich nur flache Brote backen. Ein runder Laib muss beim Backen von der Hitze ganz umschlossen sein, damit er gleichmäßig durchbacken kann. Die ersten Öfen bestanden lediglich aus einem Topf, der umgekehrt auf den heißen Stein gestürzt wurde (eine Methode, die heute noch gerne von Pfadfindern am Lagerfeuer praktiziert wird). Die zweite wichtige Entdeckung, die das Brotbacken grundlegend verändert hat, war die Wirkung von Hefen. Wenn man den ungebackenen Brotteig stehen lässt, sorgen in der Luft vorhandene Hefen für eine Gärung – aus dünnen Teigen wird eine Art vergorenes Getränk, aus dickeren ein Hefeteig, aus dem sich Brot backen lässt, das lockerer und schmackhafter ist, als das aus ungegorenem Teig. Da es verschiedene Hefepilze gibt, die sich unterschiedlich verhalten, waren diese Prozesse zunächst sehr vom Zufall abhängig. Der Mensch lernte erst im Laufe der Zeit, dies zu steuern, indem er von dem gut gelungenen gegorenen Teig eine kleine Menge vor dem Backen abnahm und diese dem nächsten Teig wieder zusetzte – die Methode der Sauerteiggärung, die noch heute angewendet wird. Gesäuertes Brot dürfte nach archäologischen Funden schon vor über 5.000 Jahren bekannt gewesen sein, unter anderem in Ägypten, wo schon damals Brot in größerem Maße in Bäckereien hergestellt wurde. Die Ägypter hatten in der Antike auch den Beinamen Brotesser. Sie waren es, die als erste Hefe kultivierten und damit die erste Bäckerhefe verwendeten. Von den Ägyptern wurden die Backöfen weiter entwickelt, die ersten waren aus Lehm und ähnelten Bienenkörben. Darin konnte eine sehr hohe Hitze erreicht werden, die die im Teig vorhandene Feuchtigkeit augenblicklich in Dampf verwandelt. So wird das Volumen der Brote stark vergrößert und die Krustenbildung verzögert. Zwischen 2860 und 1500 v. Chr. waren im Land am Nil 30 verschiedene Brotsorten (z. B. Chet-Brot) bekannt. Von Ägypten aus gelangten die Kenntnisse des Brotbackens über Griechenland und das Römische Reich nach Europa. Die Römer bauten die ersten großen Mühlen und stellten feines Mehl her. Sie erfanden eine Vorrichtung zum Teigkneten: In einem Trog wurden über eine Mechanik Rührhölzer bewegt, indem ein Ochse oder ein Sklave darum herum lief. Nördlich der Alpen wurden Hefeteige zur Brotherstellung (entweder mit Hefe aus der Bierherstellung, die hier seit dem 3. Jahrtausend v. Chr. bekannt war, oder aber auch aus Hefemischungen wie Sauerteig) ab 713 v. Chr. nachgewiesen. Nach den römischen Grundtechniken wurde mit kleinen Veränderungen in Europa bis ins 19. Jahrhundert hinein Brot gebacken. In mehreren Dörfern gab es Gemeinschaftsöfen, in denen einmal in der Woche jeder sein Brot backen konnte. Eine römische Großbäckerei war vor 2000 Jahren in der Lage, 36.000 Kilogramm Brot pro Tag herzustellen. Nach dem Untergang des Römischen Reiches stieg das Weißbrot in den Rang einer Festtags- und Herrenspeise auf. Diese Stellung behielt es in Deutschland bis in die Zeit nach dem Dreißigjährigen Krieg und in Russland bis zum Beginn des 20. Jahrhunderts. Für die ärmeren Schichten war nur das dunkle Brot erschwinglich. In vielen Ländern wird Brot als Grundlage von Suppen und Eintöpfen verwendet. Kulturgeschichtliche Bedeutung Die Bezeichnung „Brot“ stand früher nicht alleine für das Lebensmittel Nummer 1, sondern stand als Synonym für Nahrung, Speise, Beschäftigung oder Unterhalt. In Europa und in Nordamerika stellt Brot ein unverzichtbares Grundnahrungsmittel, insbesondere für die Kohlenhydratzufuhr, dar. In anderen Gegenden der Erde wird diese Stellung von anderen brotähnlichen Produkten eingenommen. In der orientalischen Küche sind Fladenbrote beliebt, in Indien gibt es kleinere Varianten wie Chapati oder Papadam, in Pakistan wird Puri gebacken. Während Brot in Südostasien kaum vorkommt, sind in Nordchina gedämpfte Hefeteigbrötchen, gefüllt oder ungefüllt, eine beliebte Beilage. Für Australien ist Damper typisch. Aus Mexiko stammen die Tortillas aus Mais. In Afrika werden vor allem Fladenbrote aus Maniok, Hirse oder Mais mit Gewürzen gebacken. Neben der Bedeutung als Grundnahrungsmittel hat das Brot auch eine große symbolische bzw. spirituelle Bedeutung. Bei vielen Ackerbau treibenden Völkern galt und gilt Brot als heilig. So wurden beim Backen und beim Anschneiden des Brotes bestimmte Rituale vollzogen. Zu bestimmten religiösen Feierlichkeiten werden traditionelle Brote, zum Beispiel Gebildbrote, gebacken und verzehrt. Rund um das Brot gibt es noch heute sehr viele Bräuche, die oft noch mit dem Glauben an übernatürliche Kräfte verbunden sind. Etliche Sagen berichten von göttlichen Strafen, die umgehend den ereilten, der einen Brotfrevel beging. Auch an das erbettelte Brot sind abergläubische Vorstellungen und viele Sprichwörter geknüpft. Eine gewisse Verbreitung hatte das dreifache Bekreuzen der Brotunterseite vor dem Anschneiden – ein Ritual der christlichen Dreifaltigkeit Gottes zum Dank und zur Segnung des Brots. Im Wanders Deutsches Sprichwörter-Lexikon (5 Bände) finden sich zum Brot knapp fünfhundert Sprichwörter, zählt man die zusammengesetzten Wörter mit Brot dazu. Die Deutsche Brotkultur wurde im Dezember 2014 von der Kultusministerkonferenz als eine von 27 Kulturformen in das Bundesweite Verzeichnis des immateriellen Kulturerbes aufgenommen. Seit 2018 ernennt das Deutsche Brotinstitut jährlich eine Brotsorte zum „Brot des Jahres“. Brot und Salz Der Brauch, Brot und Salz etwa zum Bezug einer neuen Wohnung oder zur Hochzeit zu schenken, soll Wohlstand sichern. Brot in der jüdischen und christlichen Symbolik Wasser und gemahlenes Weizenkorn, das Element des Feuers und die Arbeit der Menschen, sind zur Herstellung von Brot notwendig. Brot gehört den Reichen wie den Armen. Es verkörpert die Güte der Schöpfung und des Schöpfers, steht aber auch für die Demut des einfachen Lebens. In der jüdischen und christlichen Symbolik spielt es eine große Rolle. Während des einwöchigen Pessachfestes, eines der jüdischen Wallfahrtsfeste, wird nur ungesäuertes Brot gegessen in Erinnerung an den Auszug der Israeliten aus Ägypten, der gemäß der biblischen Überlieferung so schnell erfolgen musste, dass zum Gärenlassen des Brotes keine Zeit blieb. Nach jüdischer Auffassung gelten Weizen, Roggen, Gerste, Hafer und Dinkel als gesäuert, wenn sie mehr als 18 Minuten mit Wasser in Berührung gekommen sind – der Zeitraum, in dem frühestens eine Gärung durch in der Luft vorhandene Hefepilze eingesetzt haben könnte. Christen sprechen im Vaterunser als vierte Bitte „Unser täglich Brot gib uns heute“. Christus wird ein Brotwunder, die wundersame Vermehrung von Broten, zugeschrieben. Im Abendmahl der christlichen Liturgie gedenkt man der Kreuzigung Jesu Christi („Christi Leib für dich gebrochen“). Dabei ist die Hostie, in der armenischen und der westkirchlichen Tradition in ungesäuerter Form, Teil des Ritus. Die Brezel entstand im 7. Jahrhundert als ein heiliges Symbol, das zum Gebet verschränkte Arme des Betenden darstellte. Brot und Politik Politisch hatte die Forderung nach Brot immer große Bedeutung, gab sein Mangel doch immer Anlass für Hungersnöte, Geburtenrückgänge, Auswanderungen und Aufstände: Der Dichter Juvenal prägte die Brot und Spiele (panem et circenses) als Ausdruck seiner Kritik am Volk im Römischen Reich. Mit dieser Methode sollte zeitweilig das Volk trotz politischer Krise ruhig gehalten werden. Marie-Antoinette wird nachgesagt, sie hätte mit geantwortet, als ihr berichtet wurde, die Armen der Bevölkerung hätten kein Brot zu essen. Jedoch erscheint dieser Ausspruch bereits in den um 1766 geschriebenen und 1782 veröffentlichten Confessions (deutsch: Die Bekenntnisse) von Jean-Jacques Rousseau, geschrieben also in ihrer Kindheit und veröffentlicht zu ihrer Zeit am französischen Hof. Frieden, Land und Brot (teilweise als vierter Begriff auch Freiheit) war neben Alle Macht den Sowjets eine zentrale Losung der Bolschewiki in der russischen Revolution von 1917. Die Formel sollte die unmittelbaren Interessen der russischen arbeitenden Klassen zum Ausdruck bringen: Sofortige Beendigung des Krieges, Lösung der Landfrage und Versorgung der Bevölkerung mit Nahrung. In den 1920er Jahren wurde in der schweren Depression der Wahlspruch Arbeit und Brot verwendet. Zentrale und zugleich alltägliche Themen etwa in der Politik werden als „Brot-und-Butter-Themen“ bezeichnet. Weitere Bedeutungen Auch etymologisch lassen sich die Einflüsse der kulturgeschichtlichen Vorstellung von Brot verfolgen. Das Wort „Brot“ kann neben dem Nahrungsmittel die Bedeutung von Nahrung ganz allgemein und Lebensunterhalt haben. Beispielsweise leitet sich das französische Wort copain (Freund, Kumpel, Kamerad) etymologisch vom Akt des Brot-Teilens und gemeinsamen Essens her. Aufgrund dieser vielfältigen Bedeutung wurde es Teil von Namen, z. B.: Brot für die Welt – Entwicklungshilfeorganisation Brot und Rosen – Titel eines Liedes von 1912, das zum Leitspruch der amerikanischen Frauenbewegung wurde. Die Bedeutung vom Brot im bäuerlichen Alltag kann man an vielen Sinnsprüchen, aber auch als Bestandteil von Sagen erkennen. „Wasser und Brot“ gelten als Symbol für äußerst karge Kost (etwa für Strafgefangene) oder in Notzeiten. Der Brotpreis war in Österreich bis etwa in die 1970er Jahre hinein amtlich preisgeregelt. Für den einfachen Strutzen Schwarzbrot 500 g und 1000 g sowie Semmeln gab es festgesetzte Preise. Der amtliche Preis für die Semmel mit frischem Ausbackgewicht von 62 g (Gramm) wurde um 1960 von 55 auf 60 und zuletzt 62 g (Groschen) angehoben. Bei Aufhebung der gesetzlichen Preisbindung für Semmeln hat die Innung der Bäcker den Semmelpreis durch eine Preisempfehlung mit 65 Groschen fixiert (Stand 29. Juni 1962). In Relation zum Verbraucherpreisindex wurden im Zeitraum 1958–2010 in Österreich der Nahrungsmittelkorb um 15 % billiger. Während Butter sich am stärksten verbilligte (−75 %) verteuerte sich Brot am kräftigsten, um gut +60 %. Die Deutsche Post bringt seit 2018 eine Briefmarke Deutsche Brotkultur zu 2,60 € heraus. Siehe auch Deutsches Brotinstitut Europäisches Brotmuseum Museum der Brotkultur Bayerisches Bäckereimuseum Kanten (Anschnitt des Brots) Literatur Heinrich Eduard Jacob: Sechstausend Jahre Brot. Rowohlt Verlag, Hamburg 1954, ISBN 978-3-922434-74-0 (Das Standardwerk) Martha Bringemeier (Hrsg.): Bäuerliches Brotbacken in Westfalen. 1980, Volltext (PDF; 8,7 MB) Georg Kretzschmar: Das Brot – Mythologie, Kulturgeschichte, Praxis. Flensburger Hefte 79. Flensburger Hefte Verlag, ISBN 3-935679-28-9. Susan Seligson: Brot. Eine Kulturgeschichte für Leib und Seele. Claassen Verlag, München 2002, ISBN 3-546-00343-8. Weblinks Deutsches Brotinstitut: Umfangreiche Informationen zu Brot Leitsätze zu Brot und Kleingebäck des Deutschen Lebensmittelbuchs. Bundesministerium für Ernährung und Landwirtschaft Bernd Kütscher: Informationen zur Brotkultur, zu Brotsorten etc. Anmerkungen und Einzelnachweise Wikipedia:Artikel mit Video Immaterielles Kulturerbe (Deutschland)
Q7802
263.375707
2098
https://de.wikipedia.org/wiki/Getr%C3%A4nk
Getränk
Getränk (Kollektivum zu Trank), auch Trunk, ist ein Sammelbegriff für zum Trinken bestimmte, zumeist aufbereitete oder zubereitete Flüssigkeiten. Getränke werden entweder zum Stillen von Durst und damit zur Wasseraufnahme des Körpers, als Nahrungsmittel oder auch als reine Genussmittel aufgenommen. Die englische Entsprechung Drink wird im deutschen Sprachgebrauch auch als Oberbegriff für Cocktails sowie für Einzelportionen von Spirituosen verwendet. Mit Mixgetränk sind ebenfalls oft Cocktails gemeint, Mischgetränk deutet auf die Zubereitung aus verschiedenen Flüssigkeiten wie bei Milchshakes oder Biermischgetränken hin. Systematik In der Warenkunde bezeichnet man bestimmte genießbare Flüssigkeiten allgemein als Getränk, andere Flüssigkeiten werden je nach Tradition und Eigenschaft teilweise dazugezählt. Allgemein zählt man hierzu: Wasser, andere nichtalkoholhaltige bzw. alkoholfreie Getränke und Eis, gegorene alkoholhaltige Getränke (Bier, Wein, Apfelwein usw.), durch Destillieren hergestellte alkoholhaltige Flüssigkeiten und Getränke (Branntwein, Likör usw.) und Ethylalkohol. Teilweise zählt man hierzu: Speiseessig (auch verdünnt), Milch und flüssige Milcherzeugnisse, Fruchtsaft, Traubenmost, Gemüsesaft. Nicht hierzu zählt man: Arzneiwaren, Körper- und Schönheitsmittel. Alkoholfreie Getränke Als alkoholfrei bezeichnete Erzeugnisse dürfen maximal 0,5 Volumenprozent Alkoholgehalt aufweisen (Traubensaft bis zu einem Volumenprozent). Eine Besonderheit sind alkoholreduzierte Getränke, die bis zu vier Volumenprozent Alkohol enthalten dürfen. In der Schweiz dürfen alkoholfreie Getränke bis zu 0,7 Vol.-% Alkohol enthalten. In der Europäischen Union besteht laut Lebensmittel-Informationsverordnung allgemein eine Verpflichtung zur Kennzeichnung des Alkoholgehalts ab 1,2 Vol.-%. Wasser gewöhnliches Wasser, nicht jedoch destilliertes Wasser Mineralwasser und kohlensäurehaltiges Wasser Eis und Schnee, natürlich oder künstlich hergestellt Wasserdampf Wasser, einschließlich Mineralwasser und kohlensäurehaltiges Wasser, mit Zusatz von Zucker, anderen Süßmitteln oder Aromastoffen. Limonade, Brause, Cola, Energy-Drink Andere Getränke auf der Grundlage von Milch und Kakao (siehe Kakao (Getränk)) Teilweise hinzugezählt wird: Trinkjoghurt, flüssige fermentierte Milch und Sauermilchprodukte Alkoholische Getränke Alkoholische Getränke oder alkoholhaltige Getränke, auch Alkoholika oder (vor allem in Bezug auf Spirituosen) geistige Getränke genannt, enthalten Trinkalkohol (Ethanol). In Lebensmitteln wird dieser meist nur als Alkohol bezeichnet. Im chemischen Sinn bilden Alkohole eine ganze Stoffgruppe. Alkoholische Getränke werden aus kohlenhydrathaltigen Flüssigkeiten durch alkoholische Gärung erzeugt. Nach geltendem Lebensmittelrecht kommen als Rohstoffe für den Alkohol nur landwirtschaftliche Produkte in Frage. Alkoholische Getränke dürfen also weder Alkohol synthetischen Ursprungs noch anderen Alkohol nicht landwirtschaftlichen Ursprungs enthalten. Zu den alkoholischen Getränken gehören Getränke, deren Alkohol lediglich durch alkoholische Gärung entstanden ist (zum Beispiel Bier und Wein), Destillate aus solchen Getränken oder aus vergorenen Maischen sowie deren Mischprodukte. Getränke, deren Alkoholgehalt direkt oder indirekt auf Destillation zurückgeht und mindestens 15 % vol. beträgt, werden in der EU als Spirituose bezeichnet. Alkoholische Getränke sind gesundheitsschädlich, weil das giftige Ethanol auf das zentrale, das periphere Nervensystem, die Leber und andere Organe wirkt. Einen risikofreien Konsum gibt es nicht. Aufgrund bestimmter Wirkungen auf das zentrale Nervensystem (Alkoholrausch) wurden alkoholische Getränke seit langer Zeit, so auch empfohlen von dem indischen Arzt Charaka, als schmerzlinderndes Mittel (Analgetikum) und zur Erreichung einer Empfindungslosigkeit (als Narkotikum zur Anästhesie) bei Operationen verwendet. Regelmäßiger und hoher Alkoholkonsum kann zur Alkoholkrankheit und zu ernsthaften Folgekrankheiten führen; seine Wirkung ist daher eindeutig negativ. Vor allem bei Männern, aber auch bei Frauen, wird durch regelmäßigen Alkoholkonsum von mehr als 36 Gramm täglich der Gedächtnisverlust um fast sechs Jahre beschleunigt. Auch die exekutiven Funktionen des Gehirns leiden unter dem Alkoholkonsum. Bei einer Depression oder Angststörung kann der Konsum von Alkohol eine symptomverstärkende Wirkung haben. Da Alkohol desinfizierend wirkt, wurde Alkoholkonsum früher mit der Vorbeugung gegen durch unsauberes Wasser übertragene Krankheiten gerechtfertigt. Die desinfizierende Wirkung von Ethanol-Wasser-Mischungen ist jedoch nur bei einem Alkoholgehalt zwischen 50 und 80 % signifikant; bei unter 20 % Ethanolgehalt fehlt sie völlig. Inhaltsstoffe In alkoholischen Getränken sind neben Ethanol und Wasser auch die bei der Gärung entstehenden Nebenprodukte enthalten, etwa Aldehyde, die Alkohole Glycerin, Methanol und 1-Propanol sowie auch höhere einwertige Alkohole. Zusätzlich finden sich aliphatische Carbonsäuren, Milch- und Bernsteinsäure sowie Carbonsäureester darin. Diese Stoffe beeinflussen das Aroma der Getränke. Beim Brennen alkoholhaltiger Flüssigkeiten oder von Maische entstehen Spirituosen mit einem Alkoholgehalt ab 15 % – mit Ausnahme von Eierlikör, der mindestens 14 Volumenprozent haben muss. Siehe auch Liste von Getränken Weblinks Einzelnachweise
Q40050
191.795761
122712
https://de.wikipedia.org/wiki/Ikonostase
Ikonostase
Die Ikonostase (auch Ikonostasis oder (der) Ikonostas; griechisch , von , , „das Bild, welches einem Gegenstande gleicht, Ebenbild“ und , daraus „Stand“ oder „Ständer“) ist eine mit Ikonen geschmückte Wand mit drei Türen, die in orthodoxen Kirchenbauten zwischen dem inneren Kirchenschiff und dem Altarraum (Bema) steht. Ikonostasen haben sich aus den frühchristlichen Templonanlagen entwickelt. Sie gehören zur Tradition der Ostkirchen. Position Das Kirchenschiff (griechisch Naos) ist der Hauptteil der Kirche; dort sitzen oder stehen die Gläubigen. Der Altarraum ist der Ort östlich des Kirchenschiffes. Der Altarraum ist gewöhnlicherweise ein bis drei Stufen höher als das Naos. Der Altar ist normalerweise ein runder Tisch für die Liturgie. Die Ikonostase ist die Wand, die zwischen dem Altar und dem Naos steht. Obwohl die Ikonostase meist fast raumhoch ist, berührt sie die Decke nur selten. Das ermöglicht es den Gläubigen, die Worte oder den Gesang des Priesters gut zu hören. In großen Kirchen ist die Ikonostase Bestandteil der architektonischen Gesamtkomposition, sie gehört aber nicht zwingend zur Grundausstattung. So gibt es viele Beispiele, dass ein Stifter später eine Ikonostase spendete. Mitunter wird diese auch Reihe für Reihe über Jahrzehnte aufgebaut. In kleineren Kirchen, vor allem in Kapellen ohne regelmäßige Liturgiefeiern, kann aus Platzgründen die Ikonostase entfallen, ebenso in nichtorthodoxen Kirchengebäuden, die temporär genutzt werden; teilweise werden dort auch tragbare und zusammenklappbare Ikonostasen genutzt, die nur während des Gottesdienstes aufgestellt werden. In der westlichen Diaspora wird teilweise die Ikonostase stilisiert und reduziert, mit dem Zweck, den Gläubigen einen größeren Einblick in den Altarbereich zu bieten. Konstruktion der Ikonostase Allgemeine Grundsätze Die Ikonostase besteht zumindest aus der königlichen Tür und den Ikonen darüber dem Paar Ikonen neben der königlichen Tür der südlichen Tür der nördlichen Tür. In größeren Kirchen können sich nach oben und nach außen weitere Ikonen anschließen. Statt mit Türen können die drei Durchgänge auch mit kostbaren Vorhängen verhängt sein. Bildauswahl Das Bildprogramm ist strikt vorgegeben: In der Mitte hängt (vom Betrachter aus) rechts eine Ikone Jesu Christi in Gestalt nach seiner Auferstehung, links eine Ikone der Gottesgebärerin, darunter bzw. dazwischen befindet sich die königliche Tür beziehungsweise das heilige Tor, durch die der Priester im Evangelienbuch und in der Eucharistie Christus zur Gemeinde bringt. Die beiden nächstäußeren Ikonen zeigen links den Schutzpatron der Kirche, rechts in den nordslawischen Kirchen den hl. Nikolaus von Myra, in den anderen Kirchen Johannes den Täufer. Kleine Christus- und Marienikonen hängen auch an der Säule der königlichen Tür, die der Priester in der Liturgie küsst. Königliche Tür Die königliche Tür in der Mitte der Ikonostase besteht aus zwei Türflügeln mit Darstellungen der vier Evangelisten und der Verkündigungsszene mit dem Erzengel Gabriel und der Gottesmutter. Ober- und unterhalb der hll. Gabriel und Maria sind die Ikonen zweier Evangelisten, gewöhnlich mit ihrem ikonographischen Attribut (Matthäus: geflügelte Gestalt, Markus: Löwe, Lukas: Stier, Johannes: Adler). Über der königlichen Tür hängt eine Ikone des letzten Abendmahls. Darüber befindet sich die große Ikone, normalerweise die Ikone des oder der Heiligen oder des Festes, dem die Kirche geweiht ist. Nördliche und südliche Tür An jeder Tür befindet sich das Bildnis eines Engels, entweder der Erzengel Michael und Gabriel oder zweier Seraphim mit sechs Flügeln. Nördlich wird Michael, südlich Gabriel dargestellt. Ikonostase in der Liturgie Die nach dem byzantinischen Ritus gefeierte Göttliche Liturgie besteht aus drei Teilen: der Gabenbereitung hinter der geschlossenen Ikonostase, dem Katechumenen-Gottesdienst und der Eucharistie. Während der Katechumenliturgie betritt der Diakon das Kirchenschiff durch die linke Tür und verlässt es durch die rechte. Solche liturgischen Gänge und Prozessionen werden stets entgegen dem Uhrzeigersinn vollzogen. Die königliche Tür wird nur während der Liturgie von Priester und Diakon durchschritten, und zwar zweimal während des Gottesdienstes: das erste Mal beim sogenannten kleinen Einzug mit dem Evangeliar vor der Verlesung des Evangeliums vor der Gemeinde. Nach der Entlassung der Katechumenen bleibt die Tür während der Eucharistie geöffnet. Somit ist der Altar während der Darbringung der Gaben sichtbar. Der zweite oder große Einzug findet bei der Überbringung der heiligen Gaben Brot und Wein vom Vorbereitungstisch auf den Altar zur Konsekration statt. Nur an Ostern und in der Woche, die sich anschließt, der Lichten Woche der Erneuerung, sind die Türen der Ikonostase immer geöffnet und gewähren den Einblick auf den Altar. Dies wird aufgefasst als Blick in das nach der Auferstehung Christi leere Grab. Ikonostasen in Deutschland griechisch-orthodoxe Kirchen (Beispiel) Die Ikonostase der Salvatorkirche in München wurde 1829 von Leo von Klenze geschaffen. russisch-orthodoxe Kirchen Als im späten 19. Jahrhundert immer mehr Kurgäste aus dem russischen Hochadel mit Verbindung zur Zarenfamilie nach Bad Ems, Baden-Baden oder Wiesbaden kamen, wurden auch dort russisch-orthodoxe Kirchen mit herausragenden Ikonostasen gebaut bzw. wie die Reinhardskirche in Bad Nauheim den Orthodoxen zur Nutzung überlassen. Die Nauheimer Ikonostase aus dem 18. Jahrhundert kam 1908 als Geschenk des Klosters Sarow an ihren derzeitigen Ort. Die Ikonostase der 1855 fertiggestellten russisch-orthodoxen Kirche in Wiesbaden ist in Carrara-Marmor in italienischen Renaissanceformen ausgeführt; die Malerei zeigt Einflüsse der Nazarener. In der St. Alexi-Gedächtniskirche in Leipzig befindet sich eine 18 Meter hohe Ikonostase vom Anfang des 20. Jahrhunderts. römisch-katholische Kirchen (Beispiel) Die Kirche St. Elisabeth in Essen-Frohnhausen besitzt als einzige römisch-katholische Kirche in Deutschland eine Ikonostase von 1964, die jedoch nur seitlich des Altarraumes angebracht ist, diesen nicht verschließt. Literatur Gabriele von Horn: Neues Wörterbuch zur Ikonenkunst. Novum Pro, Neckenmarkt u. a. 2010, ISBN 978-3-99003-212-1, S. 85–87 s.v. Ikonostase: (). Johann Hinrich Claussen: Gottes Häuser oder die Kunst, Kirchen zu bauen und zu verstehen. Vom frühen Christentum bis heute. C. H. Beck, München 2010, ISBN 978-3-406-60718-9, S. 82 f., (). Hans-Dieter Döpmann: Die orthodoxen Kirchen in Geschichte und Gegenwart (= Trierer Abhandlungen zur Slavistik. Band 9). 2., überarbeitete und ergänzte Auflage. Peter Lang, Frankfurt am Main u. a. 2010, ISBN 978-3-631-60449-6, S. 120–126. Hans Georg Thümmel: Templon und Ikonostas. In: Anna Briskina-Müller, Armenuhi Drost-Abgarjan, Axel Meißner (Hrsg.): Logos im Dialogos. Auf der Suche nach der Orthodoxie. Gedenkschrift für Hermann Goltz (1946–2010) (= Forum orthodoxe Theologie. 11). LIT, Berlin u. a. 2011, ISBN 978-3-643-11027-5, S. 309–321. Weblinks Ikonostase auf Orthpedia Schema und Aufbau einer mehrreihigen Ikonostase Einzelnachweise ! Byzantinische Kunst Orthodoxe Architektur Byzantinische Architektur Absperrung (Bauteil) Kirchenausstattung
Q193073
95.410231
85020
https://de.wikipedia.org/wiki/Laubwald
Laubwald
Laubwälder sind Wälder, in denen im Gegensatz zu Nadel- und Mischwäldern fast ausschließlich Laub- und höchstens vereinzelt Nadelbäume vorkommen. Typische Laubwälder sind die Tropische Regenwälder, Monsun-, Lorbeer- und sommergrünen Laubwälder. Unter den in Mitteleuropa herrschenden Klimabedingungen waren nacheiszeitlich sommergrüne Laubwälder beziehungsweise nach der Megaherbivorenhypothese parkartige Offenlandschaften mit Laubgehölzen vorherrschend, bevor der Mensch systematisch in die Baumartenzusammensetzung eingriff, oder Forste anlegte. Die häufigste potenzielle Waldgesellschaft Mitteleuropas sind Rotbuchenwälder. Nur in größeren Höhenlagen oder in kontinentaleren Bereichen, in denen das Klima für Laubgehölze zu kalt ist, konnten sich mehr Nadelbäume durchsetzen. Da jedoch Nadelbäume wie Fichten in der Forstwirtschaft höhere Erträge lieferten, oder wie die anspruchslosen Kiefern auf Grenzertragsböden noch gutes Wachstum zeigten, hat der reine Laubwald in Mitteleuropa durch menschliche Einflussnahme stark abgenommen. Während die heimischen Wälder 1860 noch zu 70 % aus Laubwäldern bestanden, sind es heute nur noch 30 %. Literatur Peter Schütt (Hrsg.): Lexikon der Forstbotanik. Landsberg/Lech: ecomed 1992, ISBN 3-609-65800-2, S. 264–265. Reinhold Erlbeck, Ilse Haseder, Gerhard K. F. Stinglwagner: Das Kosmos Wald- und Forstlexikon. Franckh-Kosmos, Stuttgart 1998, ISBN 3-440-07511-7, S. 453, S. 591. Weblinks Waldtyp
Q1211122
98.421157
248022
https://de.wikipedia.org/wiki/Tamburin
Tamburin
Das Tamburin (Eindeutschung des im Spätmittelalter ins Deutsche entlehnten französischen maskulinen Diminutivs tambourin von tambour, „Trommel“, von arabisch ṭambūr) ist eine einfellige Rahmentrommel mit Schellen. Tamburine bestehen aus einer einseitig unter Verwendung von Nägeln mit Tierhaut (Kalb-, Ziegenfell) oder mit Kunststoff bespannten niedrigen zylindrischem Zarge (Reif) aus Metall oder häufiger Holz, die mit Schellen, überwiegend in Form von paarweise angeordneten, gewölbten Metallplättchen (Schellenpaare, Zimbeln), besetzt sind. Die Schellentrommel wird weltweit vielfach vor allem in Tanz und Folklore verwendet, kommt aber auch als Orchesterinstrument zum Einsatz. Regionale Arten Die Schellentrommel heißt spanisch pandereta und hat in Spanien 17 bis 22 Zentimeter Durchmesser, französisch tambour de basque und italienisch tamburello (basco). Das katalanische tamborí ist eine kleine zweifellige Einhandtrommel, die in Kombination mit dem flabiol von einem einzigen Spieler (dem Tambourinaire) in der Cobla, der Sardanakapelle gespielt wird. Das Tamburin in arabischen Ländern heißt riq, im persischen Raum daf und in Zentralasien daira oder ähnlich. Aus der italienischen Volksmusik kommt das tamburello. Eine eigene Weiterentwicklung wird virtuos von Carlo Rizzo auch im Jazz gespielt. Das pandeiro spielt in der brasilianischen Volksmusik eine zentrale Rolle. Ein ähnliches Instrument ohne Trommelfell ist der Schellenring oder Schellenkranz, der oft irrtümlich als Tamburin bezeichnet wird, weil im angloamerikanischen Sprachraum alle Schelleninstrumente tambourine genannt werden. Ein Tamburin ist nicht zu verwechseln mit dem brasilianischen schellenlosen tamborim. Eine historische Rahmentrommel ist das Tabor. Spielweise Das Tamburin kann mit Fingern, Handfläche, Faust oder Schlägel geschlagen werden, wobei je nach Nähe zum Rahmen der kurze harte Schlag auf das Fell oder das hohe Klirren der Schellen im Vordergrund des Klangs stehen. Bei Tänzen wird das Tamburin vielfach auch gegen den Ellbogen oder das Knie geschlagen. Daneben kann ein längerer Schellenklang wie auch beim Schellenring durch Schütteln oder durch das Reiben mit dem Daumen über das Trommelfell erzeugt werden. Seit ihrem Einsatz in der romantischen Oper Oberon von Carl Maria von Weber 1826 wurde das Tamburin auch gelegentlich in der klassischen Musik verwendet. Literatur Jeremy Montagu, James Blades, James Holland: Tambourine. In: Grove Music Online, 2001 Weblinks Einzelnachweise Schlagtrommel Schüttelidiophon
Q193666
87.146023
34919
https://de.wikipedia.org/wiki/Mindmap
Mindmap
Die (auch: das) Mindmap (auch Mind-Map, mind map; auch: Gedanken[land]karte, Gedächtnis[land]karte) beschreibt eine von Tony Buzan geprägte kognitive Technik, die man z. B. zum Erschließen und visuellen Darstellen eines Themengebietes, zum Planen oder für Mitschriften nutzen kann. Hierbei soll das Prinzip der Assoziation helfen, Gedanken frei zu entfalten und die Fähigkeit des Gehirns zur Kategorienbildung zu nutzen. Die Mindmap wird nach bestimmten Regeln erstellt und gelesen. Den Prozess, das Themengebiet und auch die Technik wird als Mindmapping bezeichnet. Erstellung Begrifflich und als Arbeitsmittel wurden sie von dem britischen Psychologen eingeführt. Die ersten Ideen dazu entstanden bei der Arbeit an seinem Buch im Jahr 1971, im Jahr 1997 erschien das -Buch. Eine Mindmap wird auf unliniertem Papier erstellt. In der Mitte wird das zentrale Thema möglichst genau formuliert und/oder als Bild in verschiedenen Farben dargestellt. Davon ausgehend werden in Großbuchstaben die Hauptthemen, entsprechend den Kapitelüberschriften eines Buches, mit organischen (d. h. dick gebogenen und dünn auslaufenden) Hauptlinien verbunden. Pro Linie wird jeweils ein Schlüsselbegriff verwendet, wobei die Linienlänge der Wortlänge entspricht. Daran schließen sich in dünner werdenden Zweigen und unter Verwendung von Kleinbuchstaben die zweite und dritte sowie weitere Gedankenebenen (Unterkapitel) an. Verschiedene Farben für Äste oder Themen, Bildelemente zu den Begriffen, 3-D zur Hervorhebung oder persönliche Codes stellen Zusammenhänge und Querverbindungen dar. Gleiche Farben werden beispielsweise für gleiche Ebenen (Äste der ersten oder zweiten Stufe) verwendet. Die Mindmap soll kreativ und humorvoll umgesetzt werden. Jeder Ast und jede Verästelung wird vom Mittelpunkt aus gelesen. Die Mindmap ist dann beendet, wenn ihr Autor dies beschließt – theoretisch kann jedes enthaltene Wort Mittelpunkt einer neuen Mindmap sein, da die assoziativen Fähigkeiten unbegrenzt groß sind. Methode Formal gesehen bestehen Mindmaps aus beschrifteten Baumdiagrammen. Zusätzliche Anmerkungen erläutern Inhalte und Prozesse. Zusammenhänge werden durch gegenseitige Verknüpfungen dargestellt. Wenn Begriffe auch komplexer miteinander verbunden werden können, spricht man von konzeptuellen Karten (), semantischen Netzen oder Ontologien. Diese Karten weisen im Gegensatz zu Mindmaps auch eine definierte Semantik auf, d. h., die mit Linien und Pfeilen dargestellten Beziehungen zwischen einzelnen Begriffen besitzen eine definierte Bedeutung. Im Gegensatz zum Brainstorming, bei dem eine Reihe von unsortierten Begriffen produziert und anschließend mit der Pinnwandmoderation sortiert werden, wird bei der Mindmap von Beginn an eine vernetzte Struktur erzeugt. Eine Mindmap eignet sich auch zur Dokumentation der sortierten Fassung eines Brainstormings. Mit der metrischen Auswertung des veranschaulichten Wissens stellt sich eine Beziehung zur Informetrie her, die Wissensbilanzen erstellt. Mindmap-Software FreeMind, eine plattformunabhängige freie Mindmap-Software unter GPL-Lizenz Freeplane, ein Fork von FreeMind, das auf Benutzerfreundlichkeit abzielt Docear, ein Fork von FreePlane, mit speziellen Funktionen für wissenschaftliche Anwendungen MindManager, ein kostenpflichtiges Programm, das speziell durch seine Integration in die Office-Landschaft für den Einsatz in der Geschäftswelt ausgelegt ist iMindMap, ein von Tony Buzan selbst mitentwickeltes kommerzielles Programm, welches das Erstellen eher organisch aussehender Mindmaps erlaubt und verschiedene Modi und Ansichten z. B. zum Brainstorming mit Zetteln integriert. MindView, ehemals OpenMind, eine kostenpflichtige Mindmap-Anwendung mit MS-Office-Integration und sechs austauschbaren Ansichten XMind, eine freie Variante mit kostenpflichtiger Pro-Version für den Geschäftseinsatz. Nutzer können Mindmaps auf der XMinds-Online-Plattform veröffentlichen. Die Mindmap-Werkzeuge erweitern die klassischen Mindmaps häufig um spezielle Äste, mit denen Verweise auf Dateien oder Internetquellen hergestellt werden können. Hierbei führt die Mindmap also auch externe Datenquellen zusammen, die thematisch verwandt sind. Weiterhin verwenden Mindmap-Programme Werkzeuge für die Abbildung von Projekten und Checklisten. Neben klassischen Einzelbenutzer-Mindmap-Werkzeugen existieren auch vernetzte Lösungen, bei denen die Teilnehmer parallel an derselben Mindmap arbeiten. Einsatz-Szenarien sind dezentrale Brainstormings (z. B. im Rahmen eines ) sowie Informationssammlungen für das Wissensmanagement eines Unternehmens. Eignung Mindmaps können für viele unterschiedliche Dinge eingesetzt werden. Man kann sie für Präsentationen, Referate und Vorträge sowie Plakate verwenden. In Bezug auf Themen gibt es keine Grenzen. Einsatzmöglichkeiten sind von der Schule über die Wirtschaft bis zur Wissenschaft zu finden. Ideensammlung und Brainstorming Für Ideensammlung und Brainstorming sind Mindmaps deswegen gut zu gebrauchen, weil jedes Schlüsselwort weitere assoziieren kann. Durch diese Assoziationen lassen sich großräumige Mindmaps aufbauen. Sachtexte strukturieren Um etwas unübersichtliche Sachtexte zu strukturieren, sind solche Mindmaps ebenfalls gut geeignet, weil sie so alle Oberbegriffe zu einem Thema übersichtlich zusammenfassen und bündeln, aber durch weite Verzweigung trotzdem noch ausführlich sind. Vortrag entwerfen Zur Planung von Vorträgen oder Reden sind sie gut zu verwenden, weil jeder Themenbereich mit seinen Querverbindungen erfasst werden kann. Im Vortrag kann dann flexibel auf die Schlüsselbegriffe eingegangen werden, die rund um einen Themenbereich angeordnet sind, ohne dabei den roten Faden zu verlieren. Für Vorträge eignen sich ebenso sogenannte „Struktogramme“, die die Oberbegriffe untereinander anordnen und dann durch eine Linie von oben nach unten verbinden. Rechts von den Oberbegriffen werden dann die Unterpunkte angesammelt. Protokoll Inhalte aus Telefongesprächen, Besprechungen, Vorträgen, Befragungen können mit einem Assoziogramm erfasst, zusammengefasst und dokumentiert werden. Zeitliche Abläufe können dabei beispielsweise im Uhrzeigersinn dargestellt werden. Auch hier unterstützt die grafische Darstellung ein nachhaltiges Erinnern. Planung und Organisation Zur Planung und Organisation sind Mindmaps hilfreich, weil in ihnen alle wichtigen Bereiche übersichtlich zusammengefasst werden können. In diesem „Aufgabenzettel“ können auch später immer wieder Dinge hinzugefügt werden, ohne dass großes Durchstreichen oder Einfügen mit Klammern nötig wäre. Lernen, Prüfungsvorbereitung Für die Prüfungsvorbereitung ist das Mindmapping gut geeignet, da in kreativen Schritten eine griffige Darstellung des Lernstoffes erarbeitet wird und später weiter durch systematisch wiederholte Beschäftigung mit dieser Wiedergabe der gelernte Stoff gefestigt wird. Eine solche übersichtliche Anordnung der semantischen Struktur des Wissens fördert die stabile Erinnerbarkeit über lange Zeiträume. Beim Aufbau der Mindmaps sollten einem Ast nicht mehr als sieben Unteräste zugeordnet werden. Dies fördert, dass man sich die Mindmaps während des Lernens fotografisch merkt und in der Prüfungssituation in Gedanken systematisch durchgeht. So lassen sich auch umfangreiche Informationen wie Vorlesungsskripte und Ähnliches reproduzieren. Auch für das Lernen von Fremdsprachen, Fremdwörtern und Fachbegriffen sind Mindmaps geeignet. Die Verknüpfung von Wörtern und Begriffen mit Bildern hilft dabei, sich alles besser zu merken. Leistungsvorteile Durch den „gehirngerechten“ Aufbau von Mindmaps prägen sich Sachverhalte gut ein und können leicht im Gedächtnis abgespeichert werden. Ferner bildet sich sofort die Essenz des zu Lernenden. Überflüssige Wörter, die in Sätzen häufig vorkommen, müssen nicht mitgelernt werden. Dies wird auch durch die nötige Kreativität und den Zusammenhang zwischen Wort und Bild erzielt. Mindmaps sind durch die Möglichkeit der Erstellung per Computer oder per Hand ein vielfältiges Medium und können somit optimal für Vorträge als auch für persönliche Notizen genutzt werden und der Aufwand ist in beiden Fällen dem Anspruch ihres Zwecks angepasst. Auch zur Archivierung, ob nun elektronisch oder per Hand, eignen sie sich somit hervorragend. Dadurch, dass Mindmaps leichter zu ergänzen sind als lineare Aufzeichnungen, können Strukturen verbessert werden, und Neues, was über mehrere Termine hin in die Mitschrift aufgenommen werden soll, kann besser angefügt werden, ohne große Streichungen vornehmen zu müssen. Weil sie die Hauptidee deutlich herausstellen, können Ideen besser eingeschätzt werden, dass man „den Wald vor lauter Bäumen“ nicht mehr sieht, das passiert so also selten, denn das Wichtigste steht eindeutig näher im Zentrum, in der Mitte des Blattes, weniger Wichtiges steht mehr am Rande. Ein Vorteil gegenüber der Darstellung in einer linearen Tabellenform liegt z. B. darin, dass Verknüpfungen der Begriffe untereinander aufgezeigt werden können. Mängel Kritisiert wird, dass die verschiedenen positiv hervorgehobenen Aspekte der Anwendung einer Mindmap zwar einleuchtend, aber nicht wissenschaftlich belegt seien. Weiterhin wird entgegnet, Mindmaps seien im Wesentlichen nur ein Werkzeug für seinen Autor und nicht für den Leser, weil die gewählten Schlüsselbegriffe häufig sehr individuell und für andere nicht verständlich seien, die Strukturierung der Information oft nur für den Autor einsichtig sei und das gleiche Problem die verwendeten Symbole und Farben betreffen würde. Anders formuliert ist ein Mindmap nicht selbsterklärend, muss also für den Leser präsentiert und erklärt werden, eignet sich aber immerhin für (kommentierte) Präsentationen. Die Beschränkung auf eine mono-hierarchische Struktur führt teilweise zu Redundanzen oder Informationsverlust, sofern komplexe Ontologien zu Taxonomien reduziert werden. Zur Umgehung der Beschränkung auf eine mono-hierarchische Baumstruktur werden Teilaspekte häufig unter mehreren Schlüsselwörtern eingeordnet und Beziehungen zwischen Schlüsselwörtern durch zusätzliche „Zweigverbindungen“ angedeutet. Mindmaps können so ihre Übersichtlichkeit schnell verlieren. Die Ebenen – also die hierarchische Einordnung der Begriffe – sind nur in einfachen Fällen sofort einsichtig. Häufig werden in der Bearbeitungsphase Hierarchien verändert; daher ist es regelmäßig erforderlich, sich sehr lange und intensiv mit der Struktur einer Mind Map auseinanderzusetzen, um eine logische und widerspruchsfreie Mindmap zu erstellen – was allerdings unter bestimmten Aspekten durchaus einen Vorteil der Methode darstellt. Andersgeartete Strukturierungen und Ideensammlungen sind als Werkzeuge nicht notwendigerweise schlechter geeignet als eine Mindmap. Mindmaps sind ab einer bestimmten Menge an zu transportierenden Informationen auch nicht mehr als Übersicht geeignet. Assoziative Lernmethoden lassen sich ebenso gut mit anderen Strukturierungen erreichen. Vergleiche von Mindmaps mit ähnlichen Strukturen Cognitive Maps Mindmaps haben eine Baumstruktur. Im praktisch rekursiven Denken ist die Verbindung von Konzepten jedoch nicht notwendigerweise auf eine Baumstruktur beschränkt. Alle Konzepte wirken wechselseitig aufeinander. Solche Strukturen kann man besser mit kognitiven Karten (kognitive Statusdiagramme) darstellen. Dafür werden Hasse-Diagramme verwendet oder Matrizen, mit denen Berechnungen für Simulationen möglich sind. Wenn die Berechnung aus unscharfer Logik (Fuzzy Logic) abgeleitet wird, dann handelt es sich um Fuzzy Cognitive Maps (FCMs). FCMs sind „azyklische oder zyklische kausale Prädiktorsysteme. Vom Standpunkt der strukturellen Modellierungstheorie sind FCMs unscharfe, gerichtete Graphen (Digraphen)“. Als Matrix (Beispiel: Drogenkriminalität) dargestellt, lassen sich mit FCMs die Wechselwirkungen beispielsweise zwischen den kognitiven Zuständen eines Denkprozesses oder den Faktoren eines Projektes auch berechnen. Bart Kosko weist in seinem Buch Fuzzy Thinking auf weitere gute Beispiele hin, darunter auch wieder eine Anwendung für die Politik, die elf Komponenten der Drogenkriminalität in einer FCM miteinander verknüpft und damit die Gefahr monokausaler Lösungsansätze in der Politik verdeutlicht. iMapping iMaps haben, wie Mindmaps, eine hierarchische Grundstruktur. Allerdings bilden sie Hierarchien durch ihr Verschachtelungsprinzip und ihrer Zoomfunktion im iMapping-Tool flexibler ab. Im Gegensatz zur Mindmap können somit unbegrenzt viele Informationen in eine iMap aufgenommen werden. Anders als bei Mindmaps, deren Äste ausschließlich Hierarchien darstellen, können in iMaps auch Querverbindungen dargestellt werden. Freie Strukturierung Freie Strukturierung erfordert keine Hierarchie, Verschachtelung oder Verbindungen. Auf der anderen Seite können gerichtete oder ungerichtete Quer- und Mehrfachverbindungen erstellt werden. Typischerweise kann eine Mindmap im Rahmen der freien Strukturierung erstellt werden, wenn dies für die Problematik aus der Sicht des Erstellers sinnvoll ist. Die Stern-Struktur bzw. Stern von Sternen-Struktur von Mindmaps kann aber verlassen werden, wenn z. B. neue Erkenntnisse erlangt werden. Oft entstehen neue Einsichten, wenn der Mittelpunkt einer Mindmap gelöscht wird und dann nach Beziehungen zwischen den ehemaligen Kind-Knoten gesucht wird. So entsteht oft eine freie (bzw. befreite) Struktur. So kann dann die „völlig freie und unverwechselbare Art, das eigene Denken festzuhalten“ entstehen. Literatur Maria Beyer: Brainland – Mind Mapping in Aktion. 3. Auflage, Junfermann, Paderborn 2002, ISBN 3-87387-101-7. Tony Buzan, Barry Buzan: Das -Buch. Die beste Methode zur Steigerung Ihres geistigen Potentials. Moderne Verlagsgesellschaft, München 2002, ISBN 3-478-71731-0. Tony Buzan, Vanda North: Mind Mapping. Der Weg zu Ihrem persönlichen Erfolg. öbv & hpt Verlag, Wien 2005. Weblinks Einzelnachweise Pädagogische Psychologie Studiertechnik Kognitive Leistungssteigerung Diagramm Kreativitätstechnik
Q192833
146.71229
4990424
https://de.wikipedia.org/wiki/Eudikotyledonen
Eudikotyledonen
Die Eudikotyledonen sind eine Gruppe von Bedecktsamigen Pflanzen, die einen Großteil der Zweikeimblättrigen (= Dikotyledonen) umfasst. Nach der Systematik der Angiosperm Phylogeny Group sind sie kein eigenes Taxon und entsprechen vom Umfang her im Wesentlichen der früheren Klasse Dreifurchenpollen-Zweikeimblättrige. Merkmale Die Eudikotyledonen besitzen wie die basalen Ordnungen der Bedecktsamer zwei Keimblätter. Bei ihnen fehlen allerdings deren ätherische Öle in Idioblasten. Die Organe der Blüte stehen in Wirteln. Die Pollenkörner besitzen drei Keimfurchen (sind tricolpat) oder sind davon abgeleitete Formen. Die Eudikotyledonen unterscheiden sich von den Monokotyledonen durch die Anzahl ihrer Keimblätter. Während Eudikotyledonen zwei Keimblätter besitzen, haben Monokotyledonen nur eines. Dies hat Auswirkungen auf die Art und Weise, wie die Pflanze wächst und sich entwickelt. Systematik Die Eudikotyledonen umfassen einen Großteil der bedecktsamigen Pflanzen. Ihre Schwestergruppe sind die Ceratophyllales. Sie selbst gliedern sich in zwei große Gruppen, die Rosiden und Asteriden, an deren Basis sich einige Ordnungen befinden. Innerhalb der Eudikotyledonen sind dies: Hahnenfußartige (Ranunculales) Silberbaumartige (Proteales) Trochodendrales Buchsbaumartige (Buxales) Die übrigen Eudikotyledonen werden häufig in den sogenannten Kerneudikotyledonen zusammengefasst, so etwa in APG III von 2009, nicht mehr aber von APG IV 2016, weshalb sie hier nicht mehr als Gruppe geführt werden. Die Kerneudikotyledonen zeichnen sich weitgehend durch fünfzählige Blütenhüllen aus, während die vorhergehenden Ordnungen hier recht variabel sind. Sie haben tricolporate Pollenkörner und enthalten Ellagsäure. Die weiteren Gruppen der Eudikotyledonen sind: Gunnerales Rosenapfelartige (Dilleniales) Superrosiden Steinbrechartige (Saxifragales) Rosiden Superasteriden Berberidopsidales Sandelholzartige (Santalales) Nelkenartige (Caryophyllales) Asteriden Das Kladogramm der Eudikotyledonen sieht folgendermaßen aus: Weblinks Einzelnachweise Bedecktsamer
Q165468
1,318.407783
9087
https://de.wikipedia.org/wiki/Sulfide
Sulfide
Als Sulfide werden in der Anorganischen Chemie Verbindungen von Metallen mit Schwefel bezeichnet, die in Analogie zu den Oxiden durch Redoxreaktionen direkt aus den Elementen hergestellt werden können. Dabei wirkt der Schwefel als Oxidationsmittel in Analogie zum Sauerstoff bei der Herstellung von Oxiden. Metalloxide und Metallsulfide sind in der Mineralogie wichtige Gruppen von Erzen. In der Analytik gehören die Metallsulfide in die sogenannte Schwefelwasserstoffgruppe und in die Ammoniumsulfidgruppe. In Lehrbüchern der Organischen Chemie finden sich Bezeichnungen von schwefelhaltigen Verbindungen als Sulfide nicht und sollten auch nicht verwendet werden, besonders nicht als ungenaue Sammelbegriffe. Das gilt erst recht dann, wenn es sich wie z. B. beim sogenannten Allylmethylsulfid eindeutig um einen Thioether handelt, den man auch als Allyl-methyl-Thioether bezeichnen könnte. Die Alkyl- und Arylderivate des Schwefelwasserstoffs (H2S) sollten nicht als Alkyl- bzw. Arylsulfide bezeichnet werden. Diese organischen Verbindungen (organischer Rest: R–) sind keine Salze und haben die Struktur R–S–R' bzw. R–S–H. Sie müssen deshalb genauer als Thioether bzw. als Thiole oder als Mercaptane bezeichnet werden. Schwieriger ist die Lage im Fall von organischen Verbindungen, die als Disulfide bezeichnet werden und in der Biochemie der Proteine eine große Rolle spielen. Weil die Funktionelle Gruppe dieser Verbindungen die Bezeichnung Disulfide trägt, wird diese Bezeichnungen in die Bezeichnung der betreffenden Verbindung übernommen. Sulfidische Minerale Zusammen mit Metall- oder Halbmetall-Kationen entstehen die etwa 600 Sulfid-Minerale, die sich meist durch charakteristische Farben und Strichfarben auszeichnen. Zu ihnen gehören eine Reihe wichtiger Erzminerale, so dass anorganische Sulfide wegen ihres mitunter hohen Metallgehalts als Rohstoffe bei der Gewinnung u. a. von Eisen, Kupfer, Blei, Zink, Quecksilber, Arsen und Antimon dienen. Hier einige sulfidische Minerale: Bornit (Buntkupferkies, Kupfer-Lazur, Cu5FeS4) Chalkopyrit (Kupferkies, CuFeS2) Cinnabarit (Zinnober, HgS) Covellin (Kupferindig, CuS) Galenit (Bleiglanz, PbS) Markasit (Strahlkies, FeS2) Molybdänit (Molybdänglanz, MoS2) Pyrit (Schwefelkies, Katzengold, Narrengold, FeS2) Pyrrhotin (Magnetkies, FeS) Realgar (Rauschrot, AsS) Sphalerit (Zinkblende, ZnS) Stibnit (Antimonglanz, Grauspießglanz, Sb2S3) Das chemische Element Schwefel bildet, analog dem in der gleichen Hauptgruppe des Periodensystems stehenden Sauerstoff, das zweifach negativ geladene Sulfid-Anion S2−. Die Sulfide der Alkali- und Erdalkalimetalle können durch Anlagerung von Schwefel an freie Sulfidelektronenpaare auch Polysulfide bilden. Schwermetallsalze bilden mit Sulfid-Lösungen unlösliche Niederschläge – eine Eigenschaft, die man für die Analytische Chemie im Kationentrenngang nutzt. Polymetallische Sulfide, die an Hydrothermalquellen der Tiefsee entstehen, könnten in Zukunft eine Rohstoffquelle für verschiedene wertvolle und seltene Metalle darstellen. Deutschland hat 2013 eine Lizenz zum Abbau maritimer Rohstoffe im Indischen Ozean bei Madagaskar beantragt. Chemische Eigenschaften In Analogie zu den Oxiden, die auch als Salze der sehr schwachen Säure Wasser aufgefasst werden können, sind die Metallsulfide auch auffassbar als Salze der schwachen Schwefelwasserstoffsäure, deren Anhydrid der gasförmige Schwefelwasserstoff ist. Bei den Sulfiden, mit dem Sulfid-Anion S2−, ist das gasförmige Anhydrid Schwefelwasserstoff leicht aus den Metallsulfiden zu erzeugen und am üblen Geruch erkennbar, wenn sich nach Zugabe von stärkeren oder starken Säuren das Metallsulfid auflöst. Bei den Metalloxiden ist eine analog ablaufende Reaktion mit Säuren unter Bildung von Wasser nicht am Geruch erkennbar und deshalb nur dann bemerkbar wenn sich das Oxid auflöst, was nur selten der Fall ist. In wässriger Lösung liegen Sulfid-Ionen zumeist als Hydrogensulfid-Anionen (HS−) vor. Gemäß 2018 veröffentlichten Untersuchungen mit Raman-Spektroskopie ist das in wässriger Lösung lange postulierte Anion S2− nicht existent. Die Schwefelwasserstoffsäure ist in wässriger Lösung eine schwache Säure. Diese Eigenschaft wird unter anderem im Kationentrenngang in der Schwefelwasserstoff- und Ammoniumsulfidgruppe eingesetzt, da die pH-Wert-abhängige Sulfidionenkonzentration eine sukzessive Fällung der unterschiedlich löslichen Sulfide ermöglicht. Zur Schwefelwasserstoffgruppe gehören nämlich nur diejenigen Elemente, deren Kationen mit dem Trennmittel H2S schon in saurem Milieu schwerlösliche Sulfide bilden (Fällungsreaktion; Sulfid-Beispiele im Bild rechts, von links nach rechts: Niederschläge mit Mangan(II)-, Cadmium(II)-, Kupfer(II)-, Zink(II)-, Antimon(III)-, Bismut(III)-, Blei(II)- und Zinn(IV)-Kationen). Zur Ammoniumsulfidgruppe gehören die nur im basischen Milieu ausfällbaren Metallsulfide. Sie sind bei Zugabe von Säuren löslich (s. o.). Neben den Sulfiden gibt es noch die ihnen verwandten Thio- und Sulfosalze. Hier sind Sauerstoffatome gegen Schwefelatome ausgetauscht worden (Beispiel: Natriumthiostannat und -thioantimonat, Natriumthiosulfat/Fixiersalz). Nachweis Sulfid-Ionen (S2−) lassen sich mit Bleiacetatpapier nachweisen, wobei eine schwarze Färbung des Papiers eintritt, hervorgerufen von Bleisulfid: Sulfid-Ionen reagieren mit Blei(II)-acetat zu schwarzem Blei(II)-sulfid und Acetat-Ionen. Eine weitere Möglichkeit ist das Ansäuern einer festen Probe mit einer starken Säure. Es entsteht ein charakteristischer Geruch nach faulen Eiern, hervorgerufen durch das Gas Schwefelwasserstoff, welches mit der Säure aus dem Sulfid verdrängt werden kann. Der Geruch erinnert auch allgemein an Fäulnis, da Schwefelwasserstoff auch bei Stoffwechselvorgängen schwefel„atmender“ (sulfatreduzierender oder schwefelreduzierender) Mikroben entstehen kann. Sulfid-Ionen reagieren mit Wasserstoff-Ionen zu dem Gas Schwefelwasserstoff (ähnlicher Geruch wie faule Eier). Mit Nitroprussid-Natrium bildet sich in schwach alkalischer Lösung eine violette Lösung von [Fe(CN)5NOS]4−. Verwendung Sulfidische Metallfällung Die chemische Fällung von Metallsulfiden spielt nicht nur bei den technischen Herstellungsprozessen eine Rolle, beispielsweise bei der Herstellung von Pigmenten, sondern auch bei Abwasserreinigungsprozessen. Dabei wird die geringe Löslichkeit der Metallsulfide genutzt, um möglichst geringe Metall-Restkonzentrationen zu erzielen. Meist sind Sulfide wesentlich geringer löslich als Hydroxide, beispielsweise: Bleisulfid, Cadmiumsulfid, Eisensulfid, Kupfersulfid, Nickelsulfid, Silbersulfid oder Zinksulfid. Als sulfidisches Fällungsmittel wird in der Regel Natriumsulfid oder Natriumhydrogensulfid verwendet. Mechanische und sonstige Anwendungen Fein gemahlene Metallsulfide wie Molybdän(IV)-sulfid und Zinn(IV)-sulfid werden, teils gemischt mit Graphit, als Festschmierstoff in Schmiermitteln für die Verbesserung der Notlaufeigenschaften von beweglichen Teilen in Maschinen eingesetzt. Auf Blei(II)- und Antimon(III)-sulfid wird hierbei aufgrund von zumindest vermuteten umwelt- und gesundheitsgefährdenden Eigenschaften zunehmend verzichtet. Des Weiteren finden sich Metallsulfide in Brems- und Kupplungsbelägen sowie als Bestandteil von Schleifmitteln. Ferner kommen sie als funktionelle Additive unter anderem in Kunststoffen, Sintermetallen und Batterien zum Einsatz. Organische Sulfide Viele Geruchsstoffe natürlicher Aromen sind organische Sulfide wie beispielsweise in Kaffee. Die natürliche Aminosäure Methionin ist ein Sulfid. Racemisches DL-Methionin wird als Futtermittelzusatzstoff im technischen Maßstab hergestellt. Zu organischen Sulfiden siehe Thioether. Aus dem Urin des Rotfuchses (Vulpes vulpes) ist mit Methyl-(3-methylbut-3-enyl)-sulfid ein organisch-chemisches Sulfid isoliert worden. Bedeutung für die Umwelt Sulfide spielen bei der Entstehung von sauren Bergbauwässern eine wichtige Rolle. Saure Bergbauwässer entstehen, wenn die in den Gesteinen anwesenden sulfidischen Mineralien oxidierenden Bedingungen ausgesetzt werden. Die Eisensulfide, die in den Bergbaugebieten am häufigsten vorkommen, sind Pyrit (FeS2) und Markasit (FeS2). Während die abiogene Oxidation bei üblichen Temperaturen und Drücken sehr langsam vonstattengeht, sind biologische Prozesse üblicherweise für den größten Teil der anfallenden Säuren verantwortlich. Hierbei oxidieren aerobe Mikroorganismen Sulfid zu Sulfat, wobei Schwefelsäure entsteht. Beim Management von Tagebaurestlöchern – vor allem aus dem Braunkohletagebau, welcher oft in sulfidhaltigen Schichten stattfindet – muss entsprechend Sorge getragen werden, dass kein Luftsauerstoff zutritt (schnelle Flutung) oder dass eine einmal erfolgte Entstehung von Säuren durch Zugabe alkalischer Stoffe (Kalk, Rotschlamm o. ä.) ausgeglichen wird. Zudem haben Eisensulfidmineralien nach der Theorie von Günter Wächtershäuser bei der Entstehung des Lebens eine Rolle gespielt (chemische Evolution). Siehe auch Sulfit (SO32−) Sulfat (SO42−) Literatur D. Weismann, M. Lohse (Hrsg.): Sulfid-Praxishandbuch der Abwassertechnik; Geruch, Gefahr, Korrosion verhindern und Kosten beherrschen! 1. Auflage, VULKAN-Verlag, 2007, ISBN 978-3-8027-2845-7. Tatjana Hildebrandt, Manfred K. Grieshaber: Tödlich und doch lebensnotwendig: Die vielen Seiten des Sulfids. In: Biologie in unserer Zeit. 39, Nr. 5, 2009, S. 328–334, doi:10.1002/biuz.200910403. Halbach, Peter: Erstentdeckung von Massivsulfiden in einem intrakontinentalen Back-arc-Becken. Die Geowissenschaften, 7(6), 157–161, 1989, doi:10.2312/geowissenschaften.1989.7.157 Weblinks Einzelnachweise Stoffgruppe
Q221205
86.38234
24008
https://de.wikipedia.org/wiki/Stonehenge
Stonehenge
Stonehenge [] ist ein Megalith-Bauwerk der Jungsteinzeit nahe dem Avon bei Amesbury, Süd-England. Es wurde ab wenigstens 3000 v. Chr. in mehreren nach und nach aufeinander folgenden Versionen errichtet. Die Anlage wurde mindestens bis in die Bronzezeit weiter genutzt und danach aufgegeben. Seither wurde sie stark beschädigt. Die jüngste Version der Anlage besteht aus einem ringförmigen Erdwall, in dessen Innerem sich verschiedene, um den Mittelpunkt gruppierte Formationen aus bearbeiteten Steinen befinden. Ihrer Größe wegen nennt man sie Megalithen. Die auffälligsten unter ihnen sind der große Kreis aus ehemals 30 stehenden Quadern, die an ihrer Oberseite einen geschlossenen Ring aus 30 Decksteinen trugen, und das große „Hufeisen“ aus ursprünglich zehn solcher Säulen, die man durch je einen aufgelegten Deckstein zu fünf Paaren miteinander verband, die sogenannten Trilithen. Jeweils innerhalb dieses Hufeisens und Kreises standen zwei der Form nach ähnliche Figuren: beide aus viel kleineren und ehedem doppelt so vielen, aber nicht durch Decksteine miteinander verbundene Menhire. Diese vier Formationen werden durch den „Altar“ nahe der Mitte der Anlage, den sogenannten „Opferstein“ innerhalb und den „Heelstone“ ein gutes Stück außerhalb des nordöstlichen Ausgangs ergänzt (die Namen entstammen der Phantasie früherer Betrachter, die Funktion der Steine ist unbekannt). Außerdem wurden drei konzentrische Lochkreise innerhalb des Ringwalls angelegt und im größten davon vier Menhire zu einem Rechteck angeordnet, dessen kurze Seiten parallel zur Längsachse des Monuments liegen. In der direkten Umgebung liegen weitere prähistorische Monumente, so zwei grob rechteckige, als Cursus bezeichnete Erdwerke, die älter sind als Stonehenge, und zahlreiche frühbronzezeitliche Hügelgräber. Der sogenannte Prozessionsweg verband Stonehenge über die nordöstliche Öffnung im umgebenden Graben und Erdwall mit dem Fluss Avon. Über den Anlass und letztlichen Zweck dieses höchst aufwendig konzipierten Monuments existieren verschiedene, einander teils ergänzende, teils auch sich widersprechende Hypothesen. Sie reichen unter anderem, von der Annahme einer Stätte für Begräbnisse und andere religiöse Kult, zu der eines astronomischen Observatoriums mit Kalenderfunktionen (u. a. für die Saatzeiten). Alle Hypothesen, auch die eher rein spekulativen, stimmen in einem Punkt überein: Die Hufeisen und die ihren Öffnungen senkrecht vorangestellten Steine sind exakt auf den damaligen Sonnenaufgang am Tag der Sommerwende ausgerichtet. Aufgrund der gebrochenen Symmetrie in diesen von Oben betrachtet Hufeisen-ähnlichen Bögen unterscheidet sich Stonehenge deutlich von jenen Monumenten, die lediglich aus Steinkreisen bestehen: hier blieb die Symmetrie ungebrochen. Seit jüngerem versucht die Wissenschaft, den sozialen und politischen Bedingungen zur Zeit der Erbauer und dem Sinn und Zweck der Anlage durch fachübergreifende Arbeit auf die Spur zu kommen. Ab 1918 ging das Monument in den Besitz des englischen Staates über; verwaltet und touristisch erschlossen wird es vom English Heritage, seine Umgebung vom National Trust. Die UNESCO erklärte die Stonehenge, Avebury and Associated Sites im Jahr 1986 zum Weltkulturerbe. 2019 wurde Stonehenge von rund 1,60 Millionen Personen besucht. 2022 betrug die Besucherzahl etwa 997.000 Menschen. Überblick Neuere Forschungen legen nahe, dass Stonehenge (und mit ihm die Kultur, die es errichtet hat) nicht isoliert von ähnlichen Bauten betrachtet werden sollte. An der Stelle, an der der Prozessionsweg auf den Avon trifft, liegt das kleinere Bluehenge und mit an Gewissheit grenzender Wahrscheinlichkeit existiert auch ein Zusammenhang mit der nahen Anlage von Durrington Walls, der größten bekannten Siedlung der Jungsteinzeit. Name und Klassifizierung des Monuments Der Name Stonehenge ist schon im Altenglischen als Stanenges oder Stanheng belegt. Während der erste Namensbestandteil das altenglische Wort stān „Stein“ ist, herrscht über das zweite Element Unklarheit. Es könnte sich um hencg „Angel, Scharnier“ handeln, eine mechanische Konstruktion, zumindest deren Geometrie eine Ähnlichkeit hat mit den Zapfen-Zapfloch-Verbindungen, durch die die Decksteine an den tragenden Sarsen befestigt oder sozusagen eingehängt sind. Diese Art Verbindung ist nicht völlig starr, im Falle von Erschütterungen durch Erdbeben sind kleine Drehbewegungen möglich. Die substantivische Ableitung von dem Verb hen(c)en: „hängen“, würde hingegen auf den „Galgen“ hinweisen. Auch hier aber besteht eine Ähnlichkeit, denn die Galgen im mittelalterlichen England besaßen zwei Standbeine – wie die Trilithen. Der auch versuchten Deutung als „(in der Luft) hängende Steine“ fehlt dagegen die semantische Konsistenz. Der zweite Bestandteil des Namens, Henge, wird heute als archäologischer Fachbegriff für jene Klasse jungsteinzeitlicher Bauwerke verwendet, die aus einer ringförmig erhöhten Einfriedung mit einem an der Innenseite entlangführenden Graben bestehen. Stonehenge selbst ist nach der derzeitigen Terminologie ein so genanntes atypisches Henge, da der Graben den Ringwall umgibt und ihm schließlich ein zweiter Ringwall angefügt wurde. Gliederung der Bauphasen Der Komplex wurde fortlaufend verändert bzw. in mehreren Phasen errichtet. Die Setzung der ersten Steinkonstruktionen erstreckte sich über einen Zeitraum von etwa 2000 Jahren bis maximal 1400 v. Chr. Nachweislich wurde das Gelände aber schon lange vor der Errichtung des Monumentes als Kultstätte genutzt. Drei große mutmaßliche Pfostenlöcher, die sich nahe dem heutigen Besucher-Parkplatz befinden, datieren aus der Mittelsteinzeit (um 8000 v. Chr). In ihrem Umkreis fand man in Bodenproben die Reste von Feuerbestattungen, die auf die Zeit zwischen 3030 und 2340 v. Chr. datiert wurden. Neueste Forschungen legen nahe, dass der Ort, an dem heute die Reste des Monuments zu betrachten sind, bereits vor 11.000 Jahren eine rituelle Bedeutung für die Menschen hatte. Die jüngsten Spuren ritueller Aktivitäten sind Relikte anderer Kulturen und stammen in etwa aus dem 7. Jahrhundert n. Chr.; als nicht-sprachliches Artefakt ist hier das Grab eines enthaupteten Angelsachsen zu erwähnen. Der Weg von der einfachsten bis hin zur komplexesten, letztgültig gebliebenen Ausführungsform dieser Anlage wird gegenwärtig in drei Hauptabschnitte untergliedert: Der Beginn der ersten Phase wird mittels Radiokarbonmethode auf etwa 3100–2900 v. Chr. datiert und dauerte bis ca. 2900–2600 v. Chr. an (evtl. bis 2100 v. Chr.). Er beinhaltet die Aufschüttung eines kreisrunden Erdwalls (mit umgebenden Graben), der u. U. zum Schutz eines offenen Platzes diente, auf dem man die Verstorbenen zur raschen Verwesung abgelegt hat – einem sog. Causeawayed Camp. Möglicherweise wurde während dieser Epoche auch der am Innenrand des Walls befindliche Kreis der Aubrey-Löcher angelegt, von denen viele als Gräber Verwendung fanden (vgl. Kap. Stonehenge 1). Die zweite Bauphase endete einigen Datierungsoptionen zufolge spätestens um 2000 v. Chr. und könnte gekennzeichnet sein von der Errichtung verschiedener Formationen aus bearbeiteten Baumstämmen. Einige Forscher rechnen auch die Aubrey-Löcher eher dieser 2. Phase zu (die Datenlage ist unsicher, ein Konsens lässt sich derzeit nicht erzielen). Phase drei: Zur erstmaligen Herstellung einer steinernen Konstruktion kam es eventuell ab etwa 2400 v. Chr. Diese Phase wird nochmals in sechs Zeiträume untergliedert. Mögliche kulturelle Hintergründe Die verschiedenen Phasen der Gestaltung des Monuments zu datieren und ihren Sinn zu verstehen, ist schwierig, da frühere Grabungsmethoden nicht den heutigen Standards entsprachen und nach wie vor kaum allgemein akzeptierte Hypothesen existieren, die es ermöglichen würden, sich umfassend fundiert in den Glauben, das Denken und Handeln der damaligen Menschen hineinzuversetzen. Dass bislang nur wenig Material entdeckt wurde, aus dem sich 14C-Daten gewinnen ließen, erschwert den Nachvollzug der zeitlichen Entwicklung dieser Kulturen zusätzlich, und damit auch die nach und nach vorgenommenen, überhaupt erst archäologisch entdeckten Veränderungen an der Gestalt des Monuments. Die heute meist akzeptierte Abfolge dieser Eingriffe wird im weiteren Text unter Bezug auf die abgebildeten Planskizzen erläutert. Die bis zur Gegenwart erhalten gebliebenen, wenngleich oft umgestürzten Megalithe sind durch Einfärbungen ihrer Umrisse (blau, braun und schwarz) hervorgehoben; die Decksteine der zwei Sarsen-Formationen ließ man aus Gründen der Übersichtlichkeit fort und über den verschwundenen Rest der somit stark beschädigten Anlage wird spekuliert. Es gibt zahlreiche Spekulationen über die Sozialstruktur und Lebensweise der Initiatoren von Stonehenge. Von verschiedenen Autoren wurde Überbevölkerung als wesentlicher Auslöser für den Bau angenommen. Frank Nikulka, Vertreter der demographischen Archäologie, verweist jedoch darauf, dass in der Region um Stonehenge keine Großsiedlungen gefunden wurden, und etliche Funde belegen, dass die Nahrungsmittelversorgung – insbesondere auch der Fleischkonsum – im Umfeld der ersten Erbauung gut war, sodass nicht von einer Überbevölkerung bzw. einem Nahrungsmangel der Megalithiker auszugehen ist. Trotz der möglicherweise 30 Millionen Arbeitsstunden, die auf den Bau innerhalb von vielleicht 500 Jahren verwendet wurden, sei mit einer damaligen Siedlungsdichte von kaum über 10 Einwohnern pro Quadratkilometern zu rechnen. Genetisch sind die jungsteinzeitlichen Bewohner Britanniens die Nachkommen von ackerbauenden und viehzüchtenden Neusiedlern vom Festland. Dabei überwiegen Marker für Populationen, die typisch sind für die westliche Einwanderungsroute (entlang der Küsten des Mittelmeers über die Iberische Halbinsel und Nordfrankreich) gegenüber solchen der östlichen (von Linearbandkeramikern mit Einwanderung über die Donauroute). Wie in allen Fällen ist eine gewisse Mischung mit dem Genom in Europa schon vorher ansässiger mesolithischer Jäger und Sammler feststellbar, in der Größenordnung von 20 Prozent oder knapp darüber. In Großbritannien ist dieser Anteil am Erbgut jedoch wesentlich geringer, sodass mit großer Wahrscheinlichkeit davon ausgegangen werden kann, dass Stonehenge von einer bäuerlichen Kultur initiiert wurde. Die extrem vielen Haustierknochen in den Ausgrabungsstätten stützen die Annahme, dass der Ackerbau bei den Gründern der Anlage eine untergeordnete Rolle spielte oder zeitweise (aus klimatischen Gründen) zugunsten der Viehhaltung wieder aufgegeben wurde. Die Anlage Der Heelstone und der Opferstein und mit ihnen die Öffnungen der beiden zentralen Hufeisen wurden auf die Position des Sonnenaufgangs zur Mittsommerwende ausgerichtet; auch scheinen neben anderen die vier Steine der Rechteckstruktur am Ringwall mit verschiedenen Periodizitäten der Himmelsmechanik zu tun zu haben. Aus diesen Gründen wird häufig angenommen, dass Stonehenge ein vorzeitliches Observatorium gewesen sei, obwohl die genaue Art der Nutzung und seine Bedeutung – etwa für Aussaat und Ernte zu den bestmöglichen Zeiten – noch diskutiert werden. Beschreibung der Steine (von innen nach außen) Der Altarstein: Ein Block von fünf Metern aus grün gesprenkeltem Sandstein, der dem Mittelpunkt der Anlage am nächsten liegt. Gleich daran schließt das kleine Hufeisen an: Es beherbergte 19 Steine, die aus Dolerit bestehen, einem sehr harten Basalt aus den Preseli-Bergen im Südwesten von Wales. Ihres bläulichen Schimmerns wegen werden die Megalithen dieses Materials auch als Blausteine bezeichnet. Ihre Höhe erreicht bis zu 2,8 m (hin zu den offenen Schenkeln des Hufeisens nimmt sie ab bis auf 70 cm), und ihre Form ist zylindrisch, nicht konisch wie bei den sonst vielfach verbreiteten Obelisken. Eine markante Besonderheit stellt dar, dass die zwei Menhire links und rechts neben dem Basisstein dieses Hufeisens einen Querschnitt aufzeigen, der der Geometrie einer Nut-Feder-Verbindung aus dem Tischlerhandwerk entspricht. Eine konkret mechanisch-verbindene Aufgabe beider Formen lässt sich indess ausschließen, da die Steine gut 3 Meter voneinander entfernt stehen. Entweder handelt es sich also um ein funktionslos gewordenes Relikt aus einer früheren Bauversion oder um die Funktion im Sinne eines reinen Symbols. Das große Hufeisen umfasst das kleine. Es bestand aus zehn Sandsteinblöcken (sog. Sarsen), die je zu zweit durch einen dritten an ihrer Oberseite miteinander verbunden waren. Mit einer Höhe von über 5 m wiegen sie bis zu 50 Tonnen – auch hier nimmt die Größe zu den Schenkeln hin tendenziell ab. (Zu den Optionen des Transports siehe im Kapitel Techniken der Erbauung und Gestaltung). Auf das mächtige Sarsen-Hufeisen folgt der Kreis aus ursprünglich 60 Blausteinen. Sie sind durchschnittlich ein gutes Stück kleiner als die des Blaustein-Hufeisens und der Form nach konisch gearbeitet (nicht zylindrisch). Die Formation dieses Bluestone-Kreises umgibt ein weiterer Kreis, der wiederum aus Sarsen konstruiert wurde: ursprünglich 30 an der Zahl, ca. 4,5 m hoch und durch 30 aufgelegte Blöcke so miteinander verbunden, dass eine geschlossene Ringstruktur entstand. Der Opferstein, dessen Name auch deswegen irreführend ist, weil man ihn leicht mit dem Altarstein verwechselt, liegt gegenwärtig mitten in der nordöstlichen Öffnung des Ringwalls, gewissermaßen im Ausgang der Anlage. Der Audioguide, mit dem die Besucher um das Monument geleitet werden, stellt fest, dass dieser Stein wahrscheinlich aufrecht gestanden habe, und dass es sich bei seinen roten Flecken nicht um Blut (das längst spurlos verwittert wäre), sondern um Eisenoxid-Einschlüsse handelt. Die Benennung „Opferstein“ sei deshalb mehr als fraglich. Der Heelstone oder Friars Heel, im Deutschen auch als „Fersenstein“ bezeichnet, steht mehr als 30 m außerhalb des Ringwalls. Die vier Stations-Steine. Weitere Besonderheiten: Die Aubrey-Löcher (56 Stück) Die Y- und Z-Löcher (29 und 30 Stück) Im Auftrag von English Heritage wurden Laserscans der Oberflächen aller noch erhaltenen 83 monumentalen Steine von Stonehenge angefertigt. Dabei wurden insgesamt 72 bislang unbekannte Gravuren entdeckt. 71 von ihnen zeigen Äxte (bis zu 46 cm groß), eine einen Dolch. Die Anlage ähnelt den Steinkreisen im Norden Schottlands, bekannt als der Ring von Brodgar. Entstehungsgeschichte 1995 wurden die Grabungsbefunde des 20. Jahrhunderts ausgewertet und mittels 14C-Datierung in drei Phasen unterschieden. Eine im Jahr 2000 vorgenommene, geringfügige Abänderung an einer älteren Datierung basiert auf der zwischenzeitlich verbesserten, als Bayessche Statistik bezeichneten Methode, die 14C-Daten auszuwerten. Bis 2009 kamen weitere kleinere Abwandlungen hinzu. Auf Grund eigener Auswertung, ebenfalls unter Anwendung der Bayesschen Statistik, legten Mitarbeiter der jüngsten Datenerhebungen Ende 2012 eine neue Studie vor, die statt der bisherigen drei nunmehr fünf Phasen vorschlägt. Eine ähnliche Interpretation wurde bereits 1979 publiziert, fand jedoch nur geringe Aufmerksamkeit. Stonehenge 1 Das erste Bauwerk maß etwa 115 m im Durchmesser und bestand aus einem kreisförmigen Wall mit einem ihn umfassenden Graben (7 und 8), der Klassifikation nach also eine atypische Henge-Anlage. Der großen, nordöstlich gerichteten Öffnung dieses Ringwalls lag eine kleinere im Süden gegenüber (14); Hirsch- und Ochsenknochen waren am Grund des Grabens platziert. Diese Knochen sind wesentlich älter als die Geweihhacken, mit denen der Graben ausgehoben wurde, und waren in gutem Zustand, als man sie vergraben hat. Der Beginn der ersten Phase wird je nach Ansatz auf ca. 3100–2900 cal v. Chr. datiert. Am äußeren Binnenrand des so eingefassten Bereiches lag ein Kreis aus 56 Löchern (13), die nach ihrem Entdecker John Aubrey als Aubrey-Löcher benannt wurden. Ein zweiter den äußeren Graben jetzt umsäumender Wall (9) könnte ebenfalls aus dieser als prä-megalithisch zu definierenden Phase (Stonehenge 1) stammen. Stonehenge 2 Sichtbare Überreste, die auf das Aussehen von Baustrukturen während der zweiten Phase sicher schließen lassen könnten, existieren nicht mehr. Die Datierung erfolgte daher eher indirekt, unter anderem über Fundstücke aus „Rillenkeramik“ (), die in diese Periode (späte Jungsteinzeit) gehören. Im Boden feststellbare Formen von Löchern könnten im frühen dritten Jahrtausend v. Chr. angelegt worden sein und Pfosten getragen haben. Weitere Pfosten könnten somit in Löchern gestanden haben, die am Nordeingang entdeckt wurden; zwei parallele Pfostenreihen wären vom Südeingang aus ins Innere verlaufen. Mindestens 25 der Aubrey-Löcher enthielten aber Überreste von Brandbestattungen, die aus einer Zeit etwa zwei Jahrhunderte nach dem Errichten der Löcher stammen. Die Löcher waren also als Begräbnisstätten in Gebrauch – ggf. hat man sie zu diesem Zweck umfunktioniert, oder die hypothetischen Pfosten bei jeder Beerdigung herausgenommen. Die Reste dreißig weiterer Feuerbestattungen wurden im Graben und an anderen Punkten der Anlage entdeckt, größtenteils in der Osthälfte. Auch unverbrannte Stücke menschlicher Knochen aus diesem Zeitraum wurden im Graben gefunden. Stonehenge 3 I In der Mitte des Heiligtums wurden um 2600–2400 v. Chr. zwei konzentrische Halbkreise aus insgesamt 80 Steinen, den so genannten Blausteinen, angelegt. Sie wurden zwar später entfernt, die Löcher aber, in denen die Steine ursprünglich verankert waren (die so genannten Q- und R-Löcher), sind nachweisbar geblieben. Wieder gibt es nur wenige Datierungshinweise für diese Phase. Die Blausteine stammen wie gesagt aus dem Gebiet der Preseli-Berge, etwa 240 km von Stonehenge entfernt. Die Steine sind größtenteils aus Dolerit, der einige Einschlüsse aus Rhyolith, Tuff und vulkanischer Asche birgt. Sie wiegen etwa vier Tonnen. Der als Altarstein (1) bekannte, sechs Tonnen schwere Sarsen (Sandstein) ist der einzige, der mit grünem Glimmer durchsetzt ist und dadurch im Sonnenlicht einen besonders schönen Glanz erhält. Er stammt ebenfalls aus Wales. Möglicherweise wurde er als großer Monolith aufrecht im Zentrum aufgestellt, vielleicht aber war auch von vornherein beabsichtigt, dass er liegt. Viele der frühen Megalithanlagen stellen Bestattungseinrichtungen dar (z. B. die Hünen-Gräber, im deutschen Sprachraum auch Teufelsbetten genannt), so könnte er zur Aufbahrung eines Gefallenen gedient haben oder selbst einen solchen symbolisieren. Zu dieser Zeit wurde die rechte Seite des Einganges so verbreitert, dass der dazugehörige Kreiswinkel (eher dürfte die zum Horizont hin verlängerte Gerade zwischen nördlichem Stationsstein und rechtem Rand der Wallöffnung gemeint sein) nun genau auf die damalige Position des Sonnenaufgangs zur Winterwende zeigt. Somit ergibt sich eine scheinbare Pendelbewegung unseres Zentralgestirns zwischen der 'senkrecht' nach Nord-Ost (Sommerwende) deutenden Monumentsachse und dem Punkt am Horizont, in dem jene Gerade endet. Unter Umständen wurde auch der Heelstone (5) während dieser Periode außerhalb des nordöstlichen Eingangs aufgestellt; die Datierung ist aber unsicher, im Prinzip kommt jeder Teilabschnitt der dritten Phase in Frage. Weiterhin werden Druckverdichtungen im unmittelbaren Bereich des Einganges teilweise so interpretiert, dass hier bis zu drei Menhiren nebeneinander gestanden haben könnten, jedoch ergäben sich solche Spuren auch aus der wiederholten Veränderung der Position eines einzelnen Menhire. Tatsache ist jedenfalls, dass sich im Eingangsbereich heute nur einer findet. Er ist 4,9 m lang, stürzte vermutlich schon vor langer Zeit um und wird als Opferstein bezeichnet (4). Ebenfalls der Phase 3 zugerechnet wird der Aufbau der vier Stationssteine (6) sowie die Anfertigung der Avenue (10), einer durch Graben und Erdwall beidseitig eingefassten Bahn, die auch als Prozessionsweg bekannt ist und über eine Entfernung von 3 km zum Fluss Avon führt. Bei Untersuchungen dieser Strecke zeigte sich, dass sie von einer Schmelzwasserrinne aus der letzten Eiszeit vorgegeben war, die nur noch geringfügig nachbearbeitet wurde. Irgendwann in der dritten Bauphase wurden Ringgräben sowohl um die zwei Stationssteine der Nord-Süd-Diagonale als auch um den Heelstone gezogen, der spätestens seitdem als einzelner Monolith gestanden haben muss. Diese Bauphase von Stonehenge ist die, die der Bogenschütze von Amesbury erblickt haben dürfte; gegen Ende der Phase scheint Stonehenge die Henge von Avebury als zentralen Kult-Ort der Region abgelöst zu haben. Stonehenge 3 II Am Ende des dritten Jahrtausends vor Christus, nach Radiokarbondaten etwa zwischen 2550 und 2100 v. Chr., fand die Haupt-Bautätigkeit statt. Nun wurden die Bluestones entfernt und die beiden Sarsen-Konstruktionen (im Plan grau) errichtet, die den heutigen Gesamteindruck von Stonehenge bestimmen. Viele dieser insgesamt 74 Megalithe, der mit Abstand kleinste nur 25, die größten um 50 Tonnen schwer, stammen aus einem 30 km nördlich gelegenen Steinbruch bei Marlborough, wie geochemische Tests im Jahr 2020 ergeben haben. 30 dieser Blöcke bildeten einen Kreis mit einem Durchmesser von dreißig Metern. Dass es einst 30 waren, konnte erst 2013 nachgewiesen werden, als eine lang andauernde Trockenheit durch Unterschiede im Pflanzenwuchs die Verdichtung im Untergrund auch da aufzeigte, wo die Steine selbst nicht mehr vorhanden sind. Innerhalb dieses Kreises wurde dann das Hufeisen aus den 5 Trilithen aufgestellt. Die Oberflächen aller Sarsen sind behauen und wurden geglättet. Die Decksteine der beiden Sarsenformationen (Kreis + Hufeisen) erhielten an ihren Unterseiten jeweils zwei Löcher eingearbeitet, die sich mit den Zapfen oben an den tragenden Steinen zu einer Version der Nut-Feder-Verbindung ergänzen. Ein symbolischer Zweck dieser Maßnahme kann vielleicht nicht ausgeschlossen werden, sicherlich aber diente sie dazu, die Elemente miteinander zu verkeilen. An den Abschlussflächen links und rechts jedes der 30 Decksteine des Kreises findet sich Ähnliches, zudem gab man ihnen die Form sorgfältig gearbeiteter Kreissegmente, um sie zu einem perfekten Ring miteinander zu verbinden. Weiterhin finden sich auf einigen der Sarsen eingemeißelte oder geritzte Abbildungen. Die vielleicht älteste, eine rechteckige Figur an der Innenseite des Decksteines des vierten Trilithen, stellt nach Auffassung einiger Forscher eine Muttergottheit dar. Näher als diese Interpretation läge vielleicht, diesem Symbol gegenüber an eine abstrakte Darstellung der 4 Stationssteine zu denken – auch hier aber ist offen, was deren Bedeutung sei. Bezüglich der anderen Symbole bleiben weniger Fragen. Zu nennen sind insbesondere die auf dem Trilithenstein Nr. 53 befindlichen Abbildungen von vierzehn Axtköpfen und eines Bronzedolches; weitere Darstellungen von Axtköpfen finden sich auf den Steinen 3, 4 und 5 des Sarsenkreises. Die Datierung der Abbildungen ist schwierig, es bestehen aber Ähnlichkeiten zu spätbronzezeitlichen Waffen. Nicht leicht zu entscheiden ist wiederum, ob diese Darstellungen an den noch im Herstellungsprozess befindlichen Megalithen angebracht wurden, oder nachträglich. Stonehenge 3 III Zu einem späteren Zeitpunkt der Bronzezeit scheinen die Blausteine zum ersten Mal wieder aufgerichtet worden zu sein. Das genaue Erscheinungsbild der Stätte in dieser Periode ist jedoch noch nicht klar. Stonehenge 3 IV In dieser Phase, etwa zwischen 2280 und 1930 v. Chr., wurden die Blausteine erneut umgestellt. Ein Teil von ihnen wurde als Kreis zwischen den Sarsenkreis und das Sarsenhufeisen eingegliedert und der andere in Form eines Ovals um den Mittelpunkt des Monuments aufgestellt. Einige Archäologen nehmen an, dass zur Verwirklichung dieses neuen Bauprojekts eine zusätzliche Tranche von Blausteinen aus Wales herbeigeschafft werden musste. Der Altarstein könnte parallel zur Errichtung des Ovals leicht umverlegt worden sein, eventuell vom Mittelpunkt fort hin zu seiner heutigen Position (näher an der Basis unter anderem des Sarsenhufeisens). Die Arbeiten an den Bluestones dieser Phase (3 IV) wurden im Vergleich mit den Arbeiten an den zuvor errichteten Sarsen eher nachlässig ausgeführt. Die zunächst entfernten, nun wieder aufgestellten Blausteine waren nur schlecht in den Erdboden eingelassen, einige von ihnen stürzten bald wieder um. Stonehenge 3 V Bald danach wurde die nordöstliche Hälfte des in Phase 3 IV errichteten Blausteinovals entfernt, so dass jene bogenförmige Formation entstand, die wir heute als das Blausteinhufeisen kennen. Diese Struktur spiegelte die des Sarsen-Hufeisens wider, nur dass sie aus einzeln stehenden und erheblich kleineren, dafür aber annähernd doppelt so vielen Steinen errichtet wurde: 19 gegenüber den 10 Tragsteinen des Sarsen-Hufeisens. Diese Umstrukturierung des Monuments wird auf 2270 bis 1930 v. Chr. datiert. Diese Phase (3 V) verläuft somit parallel zu der von Seahenge in Norfolk. Stonehenge 3 VI Um 1630/1520 v. Chr. wurden zwei weitere Ringe von Lochgrabungen etwas außerhalb des Sarsen-Kreises angelegt, in Ergänzung zu dem Kreis der Aubrey-Löcher, die sich nahe an der Binnenperipherie des Ringwalls finden. Die neuen Kreise werden als Y- und Z-Löcher bezeichnet (Nr. 11 und 12 in der Skizze). Ihre 30 beziehungsweise 29 Löcher waren nie mit Steinen besetzt, sonst hätten sich in ihnen aufgrund des Drucks, den die Steine ausüben, Bodenverdichtungen feststellen lassen. Das Monument von Stonehenge scheint darauf um 1600 bis 1400 v. Chr. aufgegeben worden zu sein, möglicherweise im Zusammenhang des Unterganges oder der Verdrängung der Kultur seiner Schöpfer durch eine nachfolgende. Die Löcher füllten sich in den nächsten Jahrhunderten, die obersten Schichten dieses Materials stammen aus der Eisenzeit. Die astronomische Ausrichtung von Stonehenge wurde zuerst von dem britischen Astronomen Sir Joseph Norman Lockyer 1906 postuliert, wobei sich aber alle konkreten Argumente und Spekulationen Lockyers später als falsch erwiesen. Weitere einflussreiche Werke stammen von dem amerikanischen Astronomen Gerald Hawkins, der 1965 ein Buch Stonehenge decoded schrieb, das ein Bestseller wurde. Hawkins zufolge war Stonehenge ein prähistorischer Kalender, möglicherweise sogar ein Computer. Techniken der Erbauung und Gestaltung Aubrey Burl nahm an, dass zumindest ein Teil der Blausteine durch die Gletscherbewegungen des Pleistozäns von Wales nach der Salisbury Plain transportiert wurden. Ggf. würde es sich um Findlinge handeln. Man fand bisher aber weder einen geologischen Beweis für diese Annahme, noch ein anderes natürliches Vorkommen dieses ungewöhnlichen Doleritgesteins in der Nähe von Stonehenge; vielmehr ergab eine Analyse der Kristallpolarisation dieser Menhire, dass sie nur aus den Preseli-Bergen stammen können. Dies erhärtet die Thesen des Transports von Menschenhand nach der Salisbury Plain. Bezüglich der möglichen Methoden und des eigentlichen Bauverfahrens gibt es unendlich viele Spekulationen. Sie reichen bis hin zu der einer extraterrestrischen Raumfahrerzivilisation, die mit ihren technologischen Möglichkeiten problemlos imstande gewesen sei, Stonehenge als Erinnerung an ihren Besuch zu installieren. Erst in jüngerer Zeit begann man mit konkreten Experimenten, um solchen und anderen phantastischen Vorstellungen Einhalt zu gebieten bzw. die Menge der Spekulationen auf die plausibelsten zu reduzieren. Mit Hilfe experimenteller Archäologie wurde im Jahre 2001 versucht, einen mehrere Tonnen wiegenden Stein entlang des vermuteten Land- und Seeweges von Wales nach Stonehenge zu transportieren. Fast eine Hundertschaft von Freiwilligen zog ihn auf einem hölzernen Schlitten über Land und verlud ihn danach auf den Nachbau eines historischen Bootes. Es versank zwar bald mitsamt Stein bei rauer See im Bristolkanal, jedoch verlief ein zweites Experiment im August 2012 erfolgreich. Damit wurde der Beweis erbracht, dass die steinzeitliche Seefahrt durchaus in der Lage gewesen sein könnte, einen Blaustein durch den Bristolkanal und den Avon hinauf zu verschiffen. Mit den 50 Tonnen der mächtigsten Sarsen wären Boote dieser Art freilich überfordert; hier zeigten aber andere Experimente (2016), dass auch der reine Landtransport unter bemerkenswert niedrigem Aufwand möglich ist, wenn man solche Quader auf einer Gleis-ähnlichen Trasse aus geglättenen Balken voranzieht. Sie braucht nur sehr kurz sein, weil sich das hinten jeweils frei werdende Balkenpaar immer wieder vorne anfügen lässt. Dabei kann es dahingestellt bleiben, ob das Rad bereits erfunden war oder man sich zur Verringerung der Reibung untergelegter Holzrollen bedient hat. Es wurde vermutet, dass mit Hebeln und Zugseilen kombinierte Holzrahmen benutzt wurden, um die Megalithe in ihre jeweils gewünschten Endpositionen zu bringen. Alternativ könnten z. B. die Decksteine mit Hilfe von Holzplattformen schrittweise angehoben worden sein, um sie abschließend in die Zapfen der tragenden Steine wieder herabzusenken. Das gleiche ließe sich mit Rampen aus fest gestampfter Erde bewerkstelligen. Die nach Zimmermannsart herausgearbeiten Loch-Zapfenverbindungen legen nahe, dass die Erbauer bereits seit langem über derartige Fertigkeiten aus dem Gebiet der Holzbearbeitung verfügten; jedenfalls sind solche Vorkenntnisse von bestem Wert für die Stabilität von Konstruktionen nach der Art von Stonehenge. Alexander Thom vertrat die These, die Erbauer von Stonehenge hätten als Baumaß eine genormte Längeneinheit verwendet: das von ihm so genannte megalithische Yard. Es gibt näherungsweise Berechnungen des für die verschiedenen Bauphasen erforderlichen Arbeitsaufwandes. Stonehenge 1 benögtige demnach an die 11.000 Mannarbeitsstunden, Stonehenge 2 etwa 360.000, und für die abschließende Version könnten bis zu 20 Millionen Stunden erforderlich gewesen sein. Der Zeit und Kraft sparende Beitrag der damals verfügbaren Werkzeugtechnologien, einschließlich möglicher Gespanne aus Zugochsen, wurde hierbei selbstverständlich berücksichtigt. Rezeptions- und Forschungsgeschichte Erste schriftliche Erwähnungen Der gesamte Zeitraum von der archäologisch nachgewiesenen Aufgabe Stonehenges am Ende der Bronzezeit bis zur Eroberung Englands durch die Normannen liegt im geschichtlichen Dunkeln. Die erste namentliche Erwähnung liefert Heinrich von Huntingdon um das Jahr 1130 in seiner Geschichte Englands. Ausführlicher widmet sich Geoffrey von Monmouth dem Steinkreis in seiner etwa um 1135 verfassten Geschichte der Könige Britanniens. Er schreibt den Bau des Monumentes dem Zauberer Merlin zu. Der Historiker Polydor Vergil (1470–1555) greift Monmouths Schilderung auf und erklärt Stonehenge ebenfalls als Denkmal, das der Zauberer Merlin zur Zeit der Eroberung Englands durch die Angelsachsen mit Hilfe seiner magischen Kräfte errichtet habe. Theoriebildung seit der frühen Neuzeit Um das Jahr 1580 schließt der Altertumsforscher William Lambarde erstmals eine übernatürliche Entstehung der Anlage aus, indem er beobachtet, dass bei der Errichtung des Steinkreises Zimmermannstechniken auf die Steinbauweise Stonehenges übertragen wurden. Zudem erkennt er als erster, dass die Steine nicht wie früher geschildert von Merlin mit Hilfe von Zauberei aus Irland herangeschafft wurden, sondern aus der Region Marlborough stammen. Das erste Buch über Stonehenge erscheint im Jahre 1652. Sein Autor, der Baumeister Inigo Jones, der die Anlage im Auftrag des englischen Königs Jakobs I. ausführlich untersucht hat, erklärt den Steinkreis als römischen Tempel zu Ehren des Gottes Coelus. In den folgenden Jahren versuchen sich verschiedene andere Autoren an der Deutung des Steinkreises: Der Arzt Walter Charleton nimmt im Jahr 1663 an, Stonehenge sei eine Krönungsstätte der dänischen Könige Englands gewesen. Der Historiker Aylett Sammes schreibt im Jahr 1676 den Bau der Anlage den antiken Phöniziern zu. Der Altertumsforscher John Aubrey (1626–1697) erkennt am Ende des 17. Jahrhunderts den Zusammenhang Stonehenges mit vergleichbaren Monumenten in Schottland und Wales und weist die Errichtung all dieser Anlagen als Erster richtig einheimischen Erbauern zu. Fatal für die zukünftige Forschung und die Interpretierung der Anlage bis in unsere Zeit erweist sich allerdings, dass Aubrey Stonehenge und alle ähnlichen Monumente auf den britischen Inseln den Kelten zuschreibt. Verständlich wird sein Irrtum aus der wissenschaftlichen Perspektive Ende des 17. Jahrhunderts: Es gibt keine Möglichkeiten zur Datierung prähistorischer Bodendenkmäler; man datiert das Alter der Welt noch nach der biblischen Schöpfungsgeschichte auf wenige tausend Jahre und die Aubrey bekannte Literatur antiker Schriftsteller enthält keine Hinweise auf eine vorkeltische Bevölkerung der britischen Inseln. Aubrey kann den antiken lateinischen und griechischen Autoren allerdings ausführliche Schilderungen über die Druiden als keltische Priesterklasse entnehmen und so vermutet er vorsichtig, die Steinkreise seien die Tempelanlagen ebendieser Druiden. Tatsächlich liegen zwischen der Aufgabe der Anlage zum Ende der Bronzezeit und dem ersten Auftauchen sogenannter keltischer Kulturmerkmale in Europa mehr als 1.000 Jahre. Forscher des 18. Jahrhunderts greifen Aubreys These begeistert auf: Der Historiker John Toland ordnet Stonehenge in seiner im Jahr 1719 verfassten Kritische Geschichte der keltischen Religion und Gelehrsamkeit den Druiden zu. Der Arzt William Stukeley führt in den Jahren 1721 bis 1724 die bis dahin ausführlichsten und präzisesten Vermessungen der Anlage durch und vermutete als Erster eine axiale Ausrichtung der Anlage auf den Punkt der Sommersonnenwende. Im Jahr 1740 fasst er seine Ergebnisse in einem Buch zusammen und deutet Stonehenge allerdings mit fragwürdigen und unwissenschaftlichen Methoden ebenfalls als druidischen Tempel. In seinem Buch The Geology of Scripture (Die Geologie der Heiligen Schrift) deutet Henry Browne, seit dem Jahr 1824 Kurator von Stonehenge, den Steinkreis als vorsintflutlichen Tempel aus der Zeit Noahs. Er beruft sich dabei auf die Theorien des Paläontologen William Buckland (1784–1856), der statt der Evolutionstheorie die Katastrophen- oder Kataklysmentheorie vertritt. Astronomische Theorien Den Blick auf eine mögliche astronomische Nutzung der Anlage eröffnet zu Beginn des 20. Jahrhunderts als erster der Astronom Joseph Norman Lockyer (1836–1920). Er vermutet – wie schon Stuckeley ein Jahrhundert vor ihm – eine Ausrichtung der Anlage auf den Punkt der Sommersonnenwende, spekuliert aber weitergehend über die Nutzung des Steinkreises als astronomischen Kalender zur Bestimmung heiliger keltischer Feste. Unter den Archäologen seiner Zeit findet Lockyers Theorie keine Beachtung, da seine Berechnungsgrundlagen ungenau und von ihm zum Teil willkürlich ausgewählt sind, um zu den von ihm gewünschten Ergebnissen zu gelangen. Stonehenge wird daher von der archäologischen Fachwelt auch weiterhin „nur“ als prähistorische Kult- oder Weihestätte betrachtet. Der Astronom Gerald Hawkins versucht dieses Bild zu ändern, als er im Jahr 1965 sein Buch Stonehenge Decoded veröffentlicht. Mit Hilfe detaillierter Vermessungen des Monumentes und komplizierter Berechnungen will Hawkins nachweisen, dass Stonehenge als eine Art Steinzeitcomputer diente, mit dem es seinen Erbauern möglich gewesen wäre, zum Beispiel recht zuverlässig Mondfinsternisse vorauszusagen. Wie seinerzeit John Aubreys „Keltenthese“ wird nun auch Hawkins’ Theorie vom breiten Publikum begeistert aufgegriffen. Die Fachwelt hingegen zerreißt seine Forschung: Der Archäologe Richard J. C. Atkinson weist beispielsweise nach, dass Hawkins in seine Beweisführung auch Teile der Anlage einbezogen hat, die nachweislich zu verschiedenen Zeiten bestanden oder errichtet wurden und somit nicht Teil derselben Anlage sein können. Der unkonventionelle britische Astronom Fred Hoyle schrieb 1966 mehrere Artikel über Stonehenge, in denen er Hawkins Schlussfolgerungen zwar zurückweist, diese aber durch eigene Berechnungen ersetzt. Besonders einflussreich für die weitere Forschung waren aber die Werke von Alexander Thom, einem Professor für Ingenieurwesen in Oxford, der jahrzehntelang Steinkreise in seiner Freizeit untersuchte. Die Vertreter der archäoastronomischen Interpretationen waren dabei weitgehend unabhängig von der klassischen archäologischen Forschung, deren Vertreter sich mangels Expertise kaum dazu äußersten, einige Archäoastronomen traten der Archäologie sogar in offener Feindschaft entgegen. Der Einfluss der Archäoastronomen war daher in der breiten Öffentlichkeit außerhalb der akademischen Archäologie, insbesondere solchen eher esoterischer Ausrichtung wie John Michell, am größten. Innerhalb des Fachs werden seit den Veröffentlichungen von Clive Ruggels, des einzigen Professors der Fachrichtung Archäoastronomie, die meisten weitergehendenSpekulationen zu astronomischen Bezügen megalithischer Monumente eher kritisch gesehen. Ruggels konnte zeigen, dass die vermeintliche Präzision früherer Vermessungen durch die Datenlage nicht gedeckt war und dass in vielen Fällen einfachere Faustregeln zur Konstruktion von Monumenten wie Stonehenge ausreichend sind. Ausgrabungen, Forschung, Restauration Mit dem Forscher William Cunnington (1754–1810) beginnt die neuzeitliche Erforschung Stonehenges. Cunningtons Ausgrabungen und Beobachtungen bestätigen die Datierung Stonehenges in die vorrömische Zeit. Veröffentlicht werden seine Forschungen in den Jahren 1812 bis 1819 in dem lokalhistorischen Werk Ancient History of Wiltshire des Historikers Richard Colt Hoare. Ab 1880 überwachte William Flinders-Petrie die erste moderne Restauration. Auf ihn geht auch die Nummerierung der Steine zurück, die bis heute in Gebrauch ist. Stein 22 fiel zu Boden in einer schweren Sturmnacht am 31. Dezember 1900. Um 1900 zeigt John Lubbock auf Basis von in benachbarten Grabhügeln gefundenen Bronzegegenständen, dass Stonehenge bereits in der Bronzezeit genutzt wurde. William Gowland (1842–1922) restauriert Teile der Anlage und unternimmt die bis dahin sorgfältigsten Ausgrabungen, die 1901 abgeschlossen werden. Aus seinen Funden schließt er, dass zumindest Teile des Monumentes zur Zeit des Überganges von der Jungsteinzeit zur Bronzezeit entstanden. Der Archäologe William Hawley gräbt in den Jahren 1919 bis 1926 ungefähr die Hälfte des Geländes aus. Seine Methoden und Berichte sind allerdings so unzulänglich, dass sich keine neuen Erkenntnisse ergeben. Dem Geologen H. Thomas gelingt in dieser Zeit jedoch der Nachweis, dass die Blausteine von den Erbauern der Anlage aus Südwales herangeschafft wurden. 1950 beauftragt die Society of Antiquaries die Archäologen Richard Atkinson, Stuart Piggott und John Stone mit weiteren Ausgrabungen. Sie finden viele Feuerstellen und entwickeln die Einteilung der einzelnen Bauphasen weiter, so wie sie auch heute noch am häufigsten vertreten wird. In der zweiten Hälfte des 20. Jahrhunderts unternehmen die Archäologen Richard Atkinson und Stuart Piggott fortwährend weitere Ausgrabungen. Mit der Entwicklung und Perfektionierung der Radiokohlenstoffdatierung ab Mitte des 20. Jahrhunderts gelingen jetzt erstmals sichere Datierungen der Anlage in die erste Hälfte des 2. Jahrtausends vor Christus. Atkinson und Piggott restaurieren zudem weitere Teile der Anlage, indem sie einige der umgestürzten und in Schieflage geratenen Steine wieder aufrichten und im Boden einbetonieren. Bei diesen Rekonstruktionen beschränkt man sich bis heute auf solche Steine, die nachweislich erst in der Neuzeit fielen oder in Schieflage gerieten oder geraten. Viele der neuzeitlichen Beschädigungen am Monument sind einerseits auf den früheren Bedarf der umliegenden Bevölkerung an Steinen, andererseits auf den Souvenirbedarf früherer Besucher zurückzuführen. Zwischenzeitlich bot ein Schmied des nahegelegenen Ortes Amesbury Touristen einen Hammer zum Verleih, die sich damit Stückchen von den Steinen als Souvenir abschlagen konnten. Im Rahmen des Stonehenge Riverside Projekts graben Archäologen seit September 2006 in Durrington Walls 3,2 km von Stonehenge entfernt die Überreste eines neolithischen Dorfes aus der Zeit von 2600 bis 2500 vor Christus (Grooved Ware) aus. „Wir denken, wir haben das Dorf der Erbauer von Stonehenge gefunden“, äußert im Januar 2007 Mike Parker Pearson, der Leiter des Ausgrabungsprojekts von der University of Leeds. Vom 31. März bis 11. April 2008 findet die erste Grabung im Steinkreis seit 1964 statt. Unter der Leitung von Timothy Darvill und Geoff Wainwright wird ein Graben, der bei den Ausgrabungen von Hawley und Newall in den 1920er Jahren angelegt wurde, wieder geöffnet, um nach organischem Material zu suchen. Damit ist es mit Hilfe der Massenspektrometrie und der Radiokarbondatierung möglich, den Zeitpunkt, zu dem die Blausteine aufgerichtet wurden, auf wenige Dekaden genau zu bestimmen. 2010 werden bemerkenswerte neue Entdeckungen auf dem Gelände gemacht. Die Anwendung moderner Technologien weist darauf hin, dass sich in Stonehenge sehr viel mehr findet als nur der weltberühmte Kreis der steinernen Riesen. Das ganze, viele Quadratkilometer umfassende Gelände scheint von Kultstätten und geheimnisvollen Anlagen völlig durchzogen zu sein. Britische Forscher wie Vincent Gaffney von der University of Birmingham sind der Meinung, man wisse höchstens zu zehn Prozent, was Stonehenge wirklich war und wie es im Einzelnen aussah. Eine wissenschaftliche Durchleuchtung des Geländes, die gerade begonnen hat, ist bereits auf neue Kreise – „Timberhenge“ –, Gräben und Hügel sowie auf sorgsam angelegte Wälle und Vertiefungen gestoßen. Durch Untersuchungen im Jahr 2013 an der vom Fluss Avon in Richtung Südwest in die Anlage führenden Avenue ergibt sich, dass hier bereits seit dem Ende der Eiszeit eine Schmelzwasserrinne verlief. Michael Parker Pearson von der University of Sheffield und Heather Sebire von English Heritage nehmen an, dass die Erbauer von Stonehenge erkannten, dass die Rinne genau in Richtung der Wintersonnenwende verläuft. So erklären sie den Standort der prähistorischen Anlage mit diesem vorgefundenen Geländemerkmal. Im September 2014 gibt Vincent Gaffney von der University of Birmingham auf dem British Science Festival in Birmingham bekannt, dass auf Grund der in den letzten Jahren im Rahmen des internationalen Projekts Stonehenge Hidden Landscapes Project (seit 2010 laufende flächenhafte Untersuchungen mit Bodenradar und Magnetometer) erhobenen Daten auf einer Fläche von 12 km² eine erste dreidimensionale Karte mit den Spuren der noch unausgegrabenen Bodenfunde erstellt worden ist. Darin enthalten sind unter anderem 17 bislang unbekannte Holz- und Steinstrukturen sowie dutzende neu entdeckte Grabhügel. Es wird nunmehr vermutet, dass Stonehenge das Zentrum von verstreut liegenden rituellen Monumenten war, das im Laufe der Zeit zunehmend erweitert wurde. Im November 2015 wird seitens des Ludwig Boltzmann Instituts für Archäologische Prospektion und Virtuelle Archäologie (Wien) über den Fund einer 12–14 °C warmen Quelle in 3 km Entfernung beim Ort Amesbury berichtet, die, weil nicht zufrierend, günstig für Tiere und damit für Jäger gewesen sein könnte. Knochen mit darin steckenden Pfeilspitzen aus Stein wurden gefunden und in einem Bereich eines Quelltümpels Feuersteinknollen. Moderne Geschichte Die Anlage von Stonehenge wurde 1901 eingezäunt und ist seitdem nur gegen Eintrittsgeld zugänglich. Im Ersten Weltkrieg wurde westlich nahe der Anlage ein Feldflugplatz (Stonehenge Aerodrome) angelegt. Nach dem Krieg wurde dieser als Depot für Baumaterial und später als Schweinefarm genutzt. In der jüngeren Vergangenheit wurde Stonehenge durch die unmittelbare Nähe zweier stark befahrener Straßen beeinflusst: die 1958 zur Autobahn aufgewertete A303 zwischen Amesbury und Winterbourne Stoke sowie die direkt am Monument vorbeiführende A344. Es gab diverse Vorschläge, die Straßen zu verlegen oder zu untertunneln. Die Besucherströme nahmen nach dem Zweiten Weltkrieg massiv zu. Parkplätze und Toiletten wurden gegenüber den Steinkreisen auf der anderen Seite der A344 angelegt. Nach wiederholtem Vandalismus wurde die Anlage rund um die Uhr bewacht. Für die Aufseher wurde neben den Parkplätzen eine Hütte gebaut. Seit 1968 verband ein Tunnel unter der A344 Parkplätze und das Monument; darin wurde ein halb-unterirdisches Gebäude mit Café und Museumsshop gebaut und mehrfach erweitert. Die Situation wurde jahrzehntelang als nationale Schande empfunden. 1978 wurden zusätzliche Zäune errichtet; die Besucher konnten sich seitdem nicht mehr frei zwischen den Steinen bewegen, sondern mussten auf einem Weg zwischen dem Wall und den Steinkreisen bleiben. Wegen des unaufhörlichen Touristenansturms blieb nur die Umrundung der Anlage im Besucherstrom. Im Jahr 2005 kamen 800.000 Besucher. Ein Verweilen zur Besinnung an dem denkwürdigen Ort war kaum möglich. Neugestaltung seit 2013 Seit Dezember 2013 sind das Umfeld von Stonehenge und der Zugang für Besucher neu geordnet. Die Straße A344 wurde im Abschnitt der Anlage aufgelassen, ebenso wurden die Parkplätze und die alten Anlagen der Besucherbetreuung abgerissen und bis Mitte 2014 renaturiert. Stattdessen wurde ein Besucherzentrum mit Ausstellungen und weiteren Angeboten in einer Entfernung von rund zwei Kilometern von den Steinkreisen errichtet. Die Bauten sind vom Monument aus nicht zu sehen, so dass ein wesentlich ungestörteres Erlebnis als früher geboten wird. Besucher erreichen die Steinkreise vom Museum aus zu Fuß über eine Prozessionsstraße oder benutzen einen Pendelbus. Die Zeit unterwegs kann und soll zur Einstimmung mit Hilfe eines Audioguides in vielen Sprachen genutzt werden. Die Benutzung des Pendelbusses und des Audioguide sind im Eintrittsgeld eingeschlossen. Mitglieder (auch Zeitmitglieder) des English Heritage erhalten kostenlosen Zugang. Für den Besuch der Anlagen wird eine Vorreservierung empfohlen. Im Besucherzentrum wird erstmals eine Ausstellung über die Erbauer von Stonehenge, ihre Kultur und ihre Geschichte gezeigt. Sie besteht aus einem zentralen Video und fünf thematischen Informationsstationen. Das Video zeigt die Errichtung der Anlage und das sich dadurch wandelnde Landschaftsbild. Die Stationen bieten Informationen in drei Vertiefungsebenen. Die Ausstellung ist zusammen mit dem Audio-Kommentar und Informationstafeln im Gelände konzipiert; alle drei Medien wirken zusammen und ergänzen sich. Außerhalb des Besucherzentrums sind Hütten und Gruben der Erbauer von Stonehenge rekonstruiert. Der Weg vom Besucherzentrum zum Monument verläuft auf der ehemaligen Straße; etwa auf halbem Weg kann man von einer kleinen Kuppe aus die Anlage erstmals sehen. Dort bleiben die Shuttles kurz stehen und Besucher haben die Wahl, den Rest von knapp einem Kilometer zu Fuß zu gehen, um sich den Steinkreisen so selbständig zu nähern, oder auch den Rest im Bus zurückzulegen. Die neuen Bauten wurden ohne Fundamente errichtet, um eventuelle archäologische Funde im Boden darunter nicht zu stören. Neureligiöse Nutzung Mit der Wiederentdeckung und Verbreitung der klassischen Literatur entstand nach der Renaissance zunehmendes Interesse an den Druiden, die in den alten Texten erwähnt werden. Da die wissenschaftliche Erkundung der Vorgeschichte noch in den Anfängen steckte, wurde Stonehenge als vorrömischer Tempel den Druiden zugeordnet. Diese irrtümliche Verknüpfung ist immer noch einflussreich. Im Jahre 1781 hatte der Engländer Henry Hurle eine Geheimgesellschaft namens Ancient Order of Druids gegründet. Obwohl das Interesse an Druiden in der Mitte des 19. Jahrhunderts nachließ, blieben die entstandenen religiösen Ordensgemeinschaften weiter bestehen. Ihre Ausflüge nach Stonehenge lockten stets auch Schaulustige an. Ein markantes Beispiel ist die Zeremonie des Ancient Order of Druids im August des Jahres 1905, als sich 700 Mitglieder dieses Ordens in Stonehenge versammelten und feierlich 256 Anwärter in ihren Orden aufnahmen. Heute bilden die neuzeitlichen Druiden einen Teil der neureligiösen Landschaft, speziell des Neopaganismus. Sie treffen sich regelmäßig in Stonehenge und halten dort ihre Zeremonien ab. Zur Sommersonnenwende des Jahres 1972 wurde in Stonehenge das erste Mal eines der in Großbritannien dieser Zeit beliebten Free Festivals veranstaltet. Dieses Stonehenge Free Festival fand im Laufe der Jahre wachsenden Zuspruch; im Jahr 1984 trafen sich geschätzt 70.000 Besucher am Steinkreis und feierten bei Live-Musik und auch mit diversen druidischen und neuheidnischen Kulthandlungen die Sonnenwende. Im Jahr 1985 kam es im Vorfeld des Festivals zu gewalttätigen Konflikten der Besucher mit der Polizei (battle of the beanfield), worauf die Ordnungsbehörden das Festival in Stonehenge untersagten und das Gelände insbesondere zu den beiden Sonnenwenden und den Tagundnachtgleichen für alle Besucher weiträumig sperrten. 1998 wurden kleine Gruppen von Neuheiden (darunter Druiden) wieder in den Steinkreis gelassen, und zur Jahrtausendwende erreichte der Secular Order of Druids unter Berufung auf das Recht der freien Religionsausübung, dass das Versammlungsverbot für Stonehenge aufgehoben wurde. 2014 haben 36.000 Personen, Touristen wie gläubige Druiden, in der Vor-Nacht den Beginn des längsten Tags des Jahres in Stonehenge gefeiert. Die Polizei nahm dabei 25 Personen – überwiegend wegen Drogendelikten – fest. Esoterik Der Hobbyarchäologe Alfred Watkins (1855–1935) stellte in den 1920er Jahren eine Theorie auf, nach der die vorgeschichtlichen Megalith-Bauwerke – so auch Stonehenge – durch sogenannte Ley-Linien, schnurgerade Linien, miteinander verbunden seien. Watkins dachte dabei allerdings an reale Wegverbindungen. Der Autor John Michell (geb. 1933) griff diese These auf; er deutete die Linien in seinem 1969 erschienenen Buch The View over Atlantis aber nicht mehr als Wege, sondern brachte die Ley-Linien in Zusammenhang mit erdmagnetischen Kraftfeldern und „Kraftzentren“. Diese Auffassung fand in den folgenden Jahren unter den Anhängern der Esoterik bis in die heutige Zeit hinein zahlreiche Anhänger. So sollte Michells These Beleg dafür sein, dass die vorgeschichtlichen Erbauer von Stonehenge und vergleichbarer megalithischer Denkmäler noch in vollkommener Harmonie mit dem Kosmos lebten und solche „Kraftlinien“ und -„zentren“ erspüren konnten, an denen sie dann beispielsweise Tempel wie Stonehenge errichteten. Der Dokumentarfilmer Ronald P. Vaughan behauptete 2010, im Zuge seiner Recherchen eine bemerkenswerte Maßeinheit entdeckt zu haben. Die Distanz zum Mittelpunkt des benachbarten Steinkreises von Avebury entspräche mit 27.830 Metern genau dem 1440. Teil des Äquator-Umfangs (1:1440 ≙ 1 Minute : 1 Tag). Rezeption in Kunst und Kultur Sagen und Legenden Der Fersenstein war früher auch einmal als Friar’s Heel (engl. für ‚Mönchsferse‘) bekannt. Eine Sage, die frühestens auf das 17. Jahrhundert datiert werden kann, erzählt den Ursprung des Namens: Einige glauben, dass sich der Name Friar’s Heel von Freya’s He-ol oder Freya Sul ableitet, benannt nach der germanischen Gottheit Freya und den (angeblich) walisischen Wörtern für „Weg“ beziehungsweise „Sonntag“. Stonehenge wird oft mit der Artussage in Verbindung gebracht. Geoffrey von Monmouth behauptet, dass Merlin Stonehenges aus Irland hergebracht habe, wo es ursprünglich auf dem Mount Killaraus von Giganten erbaut worden sei, die die Steine aus Afrika gebracht hatten. Nach seinem Wiederaufbau bei Amesbury, beschreibt Geoffrey weiter, habe man erst Ambrosius Aurelianus, dann Uther Pendragon und später Konstantin III. im Inneren des Rings begraben. An vielen Stellen seiner Historia Regum Britanniae vermischt Geoffrey britische Legende mit der eigenen Fantasie. Er setzt Ambrosius Aurelianus mit dem prähistorischen Monument in Verbindung, nur weil sein Name dem des nahen Amesbury ähnelt. In moderner Zeit haben Pseudowissenschaftler wie Erich von Däniken die These aufgestellt, Stonehenge sei von außerirdischen Besuchern der Erde errichtet worden. Literatur Erste literarische Werke um Stonehenge entstanden Ende des 16. und Anfang des 17. Jahrhunderts: In dieser Zeit schrieb Edmund Spenser sein episches Gedicht The Faerie Queene und Thomas Rowley schreibt sein Drama The Birth of Merlin. Beide Werke befassen sich mit der Verbindung des Zauberers Merlin mit Stonehenge und sind weitestgehend inspiriert von Geoffrey von Monmouths Buch Geschichte der Könige Britanniens. Der Dichter John Dryden verfasste in der zweiten Hälfte des 17. Jahrhunderts ein Gedicht, in dem er Stonehenge als Krönungsstätte dänischer Könige huldigt. Im 18. und 19. Jahrhundert spielte Stonehenge in der nichtwissenschaftlichen Literatur dagegen kaum eine Rolle. Nennenswert ist erst wieder der 1891 erschienene Roman Tess von den d’Urbervilles von Thomas Hardy (1840–1928). In dieser Liebesgeschichte spielt Stonehenge eine zentrale, symbolische Rolle. Der Roman wurde 1979 von Roman Polański mit Nastassja Kinski in einer Hauptrolle verfilmt und später mit drei Oscars ausgezeichnet; es wurde nicht an Originalschauplätzen gedreht. Die nichtwissenschaftliche Literatur um Stonehenge im 20. Jahrhundert ist erheblich reichhaltiger und wird vor allem von historischen Romanen dominiert. Zu nennen sind aus der mittlerweile fast unüberschaubaren Zahl der Veröffentlichungen zum Beispiel der 1985 erschienene Roman Pillar of the Sky von Cecelia Holland, der 1995 erschienene Roman Die Druiden von Stonehenge von Wolfgang Hohlbein oder der 2001 in Deutschland erschienene Roman Stonehenge von Bernard Cornwell. Aber auch Familiensagas, Horror-, Fantasy- und sogar Kriminalromane greifen Stonehenge als mehr oder weniger dominierenden Teil ihrer Handlung auf. John Cowper Powys verbindet in seinem Monumentalwerk über das Leben in den 1920er Jahren Glastonbury Romance Legenden um den Heiligen Gral und den Arthus-Mythos in einer Episode mit Stonehenge. Malerei Aus dem gesamten Mittelalter sind lediglich drei Abbildungen von Stonehenge bekannt. Die ersten bildlichen Darstellungen der Anlage stammen aus Handschriften des 14. und 15. Jahrhunderts. Seit dem 16. Jahrhundert gibt es verhältnismäßig realistische bildliche Darstellungen. Die erste der drei Abbildungen zeigt die Anlage in einer Panoramaansicht – perspektivisch allerdings zu einem Rechteck verzerrt; die zweite illustriert die Errichtung der Anlage durch den Zauberer Merlin und zeigt, wie er einen der Decksteine auf zwei Tragsteine hebt. Die dritte Abbildung wurde im Jahre 2007 wiederentdeckt und stammt aus dem Geschichtswerk Compilatio de Gestis, das vermutlich um 1441 niedergeschrieben wurde. Der diese Illustration begleitende Text bezieht sich ebenfalls auf die Errichtung der Anlage durch den Zauberer Merlin. Die erste realistische Darstellung führte der niederländische Künstler Lucas de Heere (1534–1584) als Aquarell zur Illustration seines 1573 bis 1575 handschriftlich niedergelegten Berichtes Corte Beschryving van England, Scotland ende Irland aus. Das Bild zeigt den Steinkreis von erhöhter Position aus nordwestlicher Richtung. Die menschliche Figur in der Mitte des Bildes lehnt sich an den Tragstein Nr. 60. Ein lediglich mit den Initialen „R.F.“ signierter Stich aus dem Jahr 1575 und ein aus dem Jahr 1588 stammendes Aquarell von William Smith in dem Manuskript Particular Description of England zeigen die Anlage aus ähnlicher Ansicht wie de Heeres Aquarell. Vermutlich liegt allen drei Bildern die gleiche, unbekannte Vorlage zugrunde. Der nur mit „R.F.“ signierte Stich war im Jahre 1600 das Vorbild für eine Stonehenge-Illustration in dem altertumskundlichen Buch Britannia von William Canden (1551–1623). Die Illustration war ihrerseits Vorbild für weitere Bilder von Stonehenge. Die Schriften des Altertumsforschers John Aubrey (1626–1697) Ende des 17. Jahrhunderts, die im Jahre 1740 zu Stonehenge veröffentlichten Forschungen des Arztes William Stukeley sowie die Gedichte Ossians von James Macpherson (1736–1796) beeinflussen die Künstler im Laufe des 18. Jahrhunderts, Stonehenge in ihren Bildern als eine keltische oder druidische Kultstätte zu interpretieren. Im Jahr 1797 stürzte der höchste der noch stehenden Trilithen im Inneren der Anlage. Für die Künstler ergab sich damit das Problem, die Struktur und Tiefe der Steinsetzung auf ihren Bildern wiederzugeben. Als Reaktion darauf zeigen Bilder des 18. und 19. Jahrhunderts den Steinkreis jetzt bevorzugt aus besonders tiefer Perspektive und bilden die Steine vor der Kulisse eines tiefliegenden Horizontes ab. Eines der bekanntesten Bilder, die diese Perspektive einnehmen, ist ein Aquarell John Constables (1776–1837), der Stonehenge im Jahr 1820 besuchte. Constable fertigte zunächst nur eine Skizze an und schuf dann 15 Jahre später ein Aquarell des Steinkreises. Von dem englischen Landschaftsmaler William Turner (1775–1851) stammen weitere bekannte Bilder von Stonehenge. Um das Jahr 1811 zeichnete er eine erste Ansicht des Steinkreises, die ihm später als Vorlage für ein Gemälde diente. Ein weiteres Bild entstand im Jahr 1828 und zeigt Stonehenge während eines Gewitters. Der Maler und Bildhauer Henry Moore (1898–1986) schuf in den 1970er Jahren mit dem 16 Lithografien umfassenden Stonehenge Albums eines der bedeutendsten neueren Kunstwerke zu Stonehenge. Musik Der deutsche Komponist Valentin Ruckebier nimmt in seinem Werk Broken Circle für Sextett mehrfach Bezug auf Stonehenge und die zahlreichen Theorien und Legenden, die sich um den altertümlichen Zweck des Steinkreises ranken. Die Progressive-Metal-Band Stonehenge aus Ungarn ist nach dem Monument benannt. Von 1972 bis 1984 wurde zwischen den Steinen von Stonehenge jährlich das Musikfestival Stonehenge Free Festival abgehalten, welches sich großer Beliebtheit bei Bands und Publikum erfreute. Chris Evans und David Hanselmann veröffentlichten 1980 das Konzeptalbum Stonehenge, in dem sie verschiedene Mythen, darunter die Artus-Sage miteinander verknüpften. Die französische Pop-Sängerin Nolwenn Leroy nimmt in ihrem Lied Mystère, das auf ihrem 2005 erschienenen Album Histoires Naturelles veröffentlicht wurde, Bezug auf Stonehenge. Das norwegische Komikerduo Ylvis fragte 2013 im Musikvideo Stonehenge nach dem Sinn des Bauwerks. Nachbildungen und abgeleitete Namen America’s Stonehenge ist eine ungewöhnliche Steinkreis-Formation bei Salem, New Hampshire im Nordosten der Vereinigten Staaten von Amerika. Bei Maryhill im Staat Washington wurde von Sam Hill mit Maryhill Stonehenge eine maßstabsgetreue Kopie von Stonehenge im rekonstruierten Originalzustand als Kriegsdenkmal errichtet. Es ist auch nach dem Aufgangspunkt des Mittsommersonnenaufgangs ausgerichtet. Dies geschah anhand eines virtuellen Horizonts anstelle der heute sichtbaren Sonnenposition am tatsächlichen Landschaftshorizont. Stonehenge inspirierte den Geologen Jim Reinders zu seinem Werk Carhenge (1987) oder „Auto-Henge“ bei Alliance (Nebraska). Er baute die Replik aus grau angestrichenen Autos gemeinsam mit seiner Familie und widmete sie seinem verstorbenen Vater. In Neuseeland wurde im Februar 2005 mit Stonehenge Aotearoa eine funktionelle Replik eingeweiht, die als Lehrmittel für astronomische Zusammenhänge und die Kultur der Maori verwendet wird. Auf dem stillgelegten Teil der Blocklanddeponie in Bremen wurde 2021 Metalhenge eingeweiht. Der Name ist explizit an Stonehenge angelehnt, das „Stone“ in der Bezeichnung wurde aufgrund der verrosteten Hafenspundwände als Baumaterial durch „Metal“ ersetzt. Die Muchołapka, ein während des 2. Weltkriegs errichteter, zwölfeckiger Betonring auf 10 Meter hohen Säulen mit einem Durchmesser von 30 Metern im polnischen Ludwikowice Kłodzkie trägt auch die Bezeichnung „Hitlers Stonehenge“. Dokumentationen Der Geheimcode von Stonehenge. (Originaltitel: Stonehenge Decoded.) Dokumentation und Doku-Drama, Großbritannien, 2009, 43:32 Min., Buch und Regie: Christopher Spencer, Colin Swash, Produktion: National Geographic Channel, deutsche Erstsendung: 13. Dezember 2009, Reihe: Terra X. Der Film begleitet die Ausgrabungen eines Teams unter Leitung von Mike Parker Pearson (University of Leeds). Pearson konnte seine These einer überregional bedeutsamen Kultstätte für steinzeitliche Clans, die dort zur Wintersonnenwende ein Fest der Wiedergeburt feierten, mit umfangreichen Funden in der Umgebung des Steinkreises belegen. Stonehenge – Das ultimative Experiment. (Originaltitel: Mysterious Science: Rebuilding Stonehenge.) Dokumentarfilm und Rekonstruktion, Großbritannien 2005, 78 Min., Buch und Regie: Pati Marr, Johanna Schwartz, Bruce Hepton, Produktion: National Geographic Channel, arte France, deutsche Erstsendung: 2. Dezember 2006, Inhaltsangabe von arte, youtube.com. Aufgedeckt - Rätsel der Geschichte − Die Toten von Stonehenge. (Originaltitel: Treasures decoded.) Tv-Dokumentation von Tom Foulie; GB/ CDN 2017; BBC, Channel 5; Deutsche Synchronfassung: ZDF 2017; mitwirkend: Michael Parker Pearson (Prähistoriker), Christie Willis (Osteoarchäologin), Tim Tompson (Anthropologe), Jaqueline McKinley (Osteoarchäologin), Christophe Snoeck (forensischer Archäologe), Francis Pryor (Archäologe). Rätselhaftes Stonehenge - Die Spur der Steine. Originaltitel: Stonehenge: The Lost Circle Revealed. Tv-Dokumentation von Pete Chinn, GB 2021 für BBC; deutsche Synchronfassung Arte 2023. Mitwirkend: Mike Parker Pearson (Prähistoriker) u. a. (Dauerhaft abrufbar auf: youtube.com). Zitate über Stonehenge Wie großartig! Wie wunderbar! Wie unbegreiflich! (engl. ) – Sir Richard Colt Hoare in Ancient History of Wiltshire (1812–1819) Vieles, was über Stonehenge geschrieben wurde, ist erfunden, zweitklassig oder einfach falsch. () – Christopher Chippindale Jedes Zeitalter hat das Stonehenge, das es verdient – oder begehrt. () – Jacquetta Hawkes – Edmund Burke, in: «On the sublime and Beautiful» Literatur Richard J. C. Atkinson: Stonehenge. London 1956. Richard J. C. Atkinson: Stonehenge and neighbouring monuments. HMO, London 1978, ISBN 0-11-670346-6. Richard J. C. Atkinson: The prehistoric temples of Stonehenge & Avebury. Pitkin, London 1980. Michael David Balfour: Stonehenge and its mysteries. Macdonald and Jane's, London 1979, ISBN 0-354-04370-6. Karl Beinhauer (Hrsg.): Studien zur Megalithik, (engl. Ausgabe: The Megalithic Phenomenon: Recent Research and Ethnoarchaeological Approaches), 1999, ISBN 978-3-930036-36-3. Barbara Bender: Stonehenge. Making Space. Berg, Oxford u. a. 1998, ISBN 1-85973-903-2. Mark Bowden, Sharon Soutar, David Field, Martyn Barber: The Stonehenge Landscape. Analysing the Stonehenge World Heritage Site. Historic England, Swindon 2015, ISBN 978-1-84802-116-7. Aubrey Burl: Prehistoric Stone Circles. Shire, Aylesbury 1979, 1988, 2001, ISBN 0-85263-962-7. Aubrey Burl: The Stonehenge People. London 1987. Aubrey Burl: Stonehenge. A new history of the world's greatest stone circle. Constable, London 2006, ISBN 978-1-84119-964-1. Rodney Castleden: The Making of Stonehenge. Routledge, London/New York 1993, ISBN 0-415-08513-6. Christopher Chippindale: Stonehenge Complete. Thames and Hudson, London 1983, ISBN 0-500-05043-0. Christopher Chippindale: Who owns Stonehenge? Batsford, London 1990, ISBN 0-7134-6455-0. Rosamund Cleal, K. E. Walker, R. Montague, Michael J. Allen (Hrsg.): Stonehenge in its landscape. Twentieth-century excavations. English Heritage, London 1995, ISBN 1-85074-605-2 (Digitalisat). Barry Cunliffe, Colin Renfrew (Hrsg.): Science and Stonehenge (= Proceedings of the British Academy. Band 92). Oxford University Press, Oxford 1997, 1999, ISBN 0-19-726174-4. Timothy Darvill: Stonehenge world heritage site. An archaeological research framework. English Heritage and Bournemouth University, London 2005, ISBN 1-85899-203-6. Timothy Darvill: Stonehenge. The biography of a landscape. Tempus, Stroud 2006, ISBN 978-0-7524-3641-8. Sally Exon: Stonehenge landscapes. Journeys through real-and-imagined worlds. Archaeopress, Oxford 2000, ISBN 978-0-9539923-0-0. Duncan Garrow, Neil Wilkin: The World of Stonehenge. The British Museum Press, London 2022, ISBN 978-0-7141-2349-3. Alex M. Gibson: Stonehenge & timber circles. Tempus, Stroud 1998, ISBN 0-7524-1402-X. Leslie V. Grinsell: The Stonehenge barrow groups. Salisbury and South Wiltshire Museum, Salisbury 1978. Gerald S. Hawkins: Stonehenge decoded. Doubleday, Garden City 1965. Gerald S. Hawkins: Beyond Stonehenge. Harper & Row, New York 1973, ISBN 0-06-011786-9. Rosemary Hill: Stonehenge. Harvard University Press, Cambridge 2008, ISBN 978-0-674-03132-6. David Jacques, Graeme Davis (Hrsg.): Stonehenge. A landscape through time (= Studies in the British Mesolithic and Neolithic. Band 2). Peter Lang, Oxford u. a. 2019, ISBN 978-1-906165-85-7. Rodney Legg, Robert Gay: Stonehenge Antiquaries. Dorset, Sherborne 1986, ISBN 0-902129-32-5. LWL-Museum für Archäologie, Westfälisches Landesmuseum Herne (Hrsg.): Kathedralen der Steinzeit. Stonehenge und die europäischen Megalithkulturen. wbg Theiss, Darmstadt 2021, ISBN 978-3-8062-4366-6. LWL-Museum für Archäologie, Westfälisches Landesmuseum Herne (Hrsg.): Stonehenge. Von Menschen und Landschaften. Michael Imhof, Petersberg 2021, ISBN 978-3-7319-1070-1. Bernhard Maier: Stonehenge. Archäologie, Geschichte, Mythos. Beck, München 2005, ISBN 3-406-50877-4 (2. Auflage 2018). Terence Meaden: Stonehenge. The secret of the solstice. Souvenir Press, London 1997, ISBN 0-285-63375-9. Bernd Mühldorfer (Hrsg.): Mykene – Nürnberg – Stonehenge. Handel und Austausch in der Bronzezeit. (Abhandlungen der Naturhistorischen Gesellschaft Nürnberg e.V. 43). VKA, Fürth 2000, . John David North: Stonehenge. Neolithic man and the cosmos. HarperCollins, London 1996, ISBN 0-00-255773-8. Mike Parker Pearson: Stonehenge. Exploring the greatest Stone Age mystery. Simon & Schuster, London 2012, ISBN 978-0-85720-730-2. Mike Parker Pearson: Stonehenge. A brief history. Bloomsbury Academic, London/New York 2023, ISBN 978-1-350-19222-5. Mike Parker Pearson et al.: Stonehenge. Making sense of a Prehistoric mystery. Council for British Archaeology, York 2015, ISBN 978-1-909990-02-9. Mike Parker Pearson et al.: Stonehenge for the Ancestors. Part 1. Landscape and Monuments (= The Stonehenge Riverside Project. Band 1). Siedestone Press, Leiden 2020, ISBN 978-90-8890-702-9 (Online). Mike Parker Pearson et al.: Stonehenge for the Ancestors. Part 2. Synthesis (= The Stonehenge Riverside Project. Band 2). Siedestone Press, Leiden 2022, ISBN 978-90-8890-705-0 (Online). James Phillpps: Megalithic architecture in Europe. 7: England: Avebury and Stonehenge (= Architecture series. Bibliography. Band 1006). Vance, Monticello 1983, ISBN 0-88066-576-9. Mike Pitts: Hengeworld. Arrow, London 2001, ISBN 0-09-927875-8. Mike Pitts: How to build Stonehenge. Thames & Hudson, London/New York 2022, ISBN 978-0-500-02419-5. Francis Pryor: Stonehenge. The story of a sacred landscape. Pegasus Books, New York 2018, ISBN 978-1-68177-640-8. Julian Richards: The Stonehenge Environs Project. London-Southampton 1990, ISBN 1-85074-269-3 (Digitalisat). Julian Richards: Book of Stonehenge. Batsford, London 1991, ISBN 0-7134-6142-X. Julian Richards: Stonehenge. A history in photographs. English Heritage, Swindon 2004, ISBN 1-85074-895-0. Julian Richards: Stonehenge. English Heritage, London 2012, ISBN 978-1-905624-92-8. Julian Richards: Stonehenge. The story so far. English Heritage, Swindon 2006, ISBN 1-905624-00-X. Royal Commission on Historical Monuments (England): Stonehenge and its environs. Monuments and land use. Edinburgh University Press, Edinburgh 1979, ISBN 0-85224-379-0. Wolfhard Schlosser, Jan Cierny: Sterne und Steine. Eine praktische Astronomie der Vorzeit. Wissenschaftliche Buchgesellschaft, Darmstadt 1996, ISBN 3-534-11637-2 (ab Seite 82ff. ausführlich zu Stonehenge mit guten Grafiken und Tabellen). David Souden: Stonehenge. Mysteries of the stones and landscape. Collins & Brown, London 1997, ISBN 1-85585-466-X. Weblinks Guide to Stonehenge von English Heritage Stonehenge-Dossier der BBC mit Videos, Theorien etc. Supposed astronomical alignments at the monument auf tivas.org.uk „A monumental waste“, Daily Telegraph, zur A303 nahe bei Stonehenge Stones of England – Portal für britische Megalithbauten Geneviève Lüscher: Stonehenge. Heiligtum in einer kultischen Landschaft. In: Neue Zürcher Zeitung. 24. Dezember 2012 Dokumentationen und Vorträge Timothy Darvill: Great Riddles in Archaeology: Merlin’s Magic Circles. Stonehenge and the Preseli Bluestones Landesamt für Denkmalpflege und Archäologie Sachsen-Anhalt: Harald Meller trifft … Timothy Darvill British Museum Events: New scientific discoveries: reinterpreting Stonehenge. 5. Mai 2022. Bilder Stonehenge Laser Scans (englisch) Information and images of Stonehenge auf Modern Antiquarian (englisch) Tate Online: British and international modern and contemporary art Übersicht der Sammlung von Kunstwerken mit Stonehenge als Thema in der Tate Gallery (englisch) Stonehenge bei Sonnenaufgang, QuickTime Virtual Reality Stonehenge 360°-Panorama auf der Wiltshire-Website der BBC Anmerkungen Einzelnachweise Archäologischer Fundplatz in Wiltshire (Unitary Authority) Steinkreis in England Stonehenge, Avebury und zugehörige Denkmäler der Megalith-Kultur Historische Sternwarte Kultbau Bauwerk in Wiltshire (Unitary Authority) 3. Jahrtausend v. Chr. National Trust Kultstätte Archäoastronomie (Steinzeit) Wikipedia:Artikel mit Video Scheduled Monument in Wiltshire (Unitary Authority) Trilith Bodengebundenes Observatorium als Namensgeber für einen Asteroiden
Q39671
128.87004
218014
https://de.wikipedia.org/wiki/Kommunikationssatellit
Kommunikationssatellit
Kommunikationssatelliten (auch Nachrichten- oder Fernmeldesatelliten) sind unbemannte künstliche Satelliten, die die Erde umkreisen und Informations- bzw. Datenübertragung in bestimmten Gebieten der Erdoberfläche ermöglichen. Am häufigsten sind Satelliten im erdnahen Orbit, welche vor allem zur Übertragung von Internetdiensten dienen. Ebenfalls weit verbreitet sind Satelliten in geostationären Bahnen, die Fernseh- und Rundfunkprogrammen dienen (siehe auch Fernsehsatellit). Weitere Anwendungen sind die Satellitenkommunikation, die digitale Datenübertragung oder großräumiger Fernsprechverkehr. Neben den meist von staatlichen und kommerziellen Trägern unterhaltenen Satelliten gibt es auch Amateurfunksatelliten. Allgemeines Einige der ersten experimentellen Nachrichtensatelliten arbeiteten passiv, das heißt, es waren große metallisierte Ballons, die von starken Richtfunksendern angestrahlt wurden und die Funkwellen reflektierten. Spätere Generationen von Nachrichtensatelliten arbeiten aktiv: Transponder an Bord des Satelliten empfangen das Signal der Bodenstation und senden es über Richtantennen wieder zu einem bestimmten Bereich des Erdbodens zurück. Der geografische Bereich, in dem das Satellitensignal zu empfangen ist, wird Ausleuchtungszone genannt. Bei Nachrichtensatelliten mit schwachen Sendeeinrichtungen wird das Signal wieder von Erdfunkstellen empfangen und in das Fernmeldenetz eingespeist. Die Rundfunksendungen werden dann entweder terrestrisch übertragen oder ins Breitbandkabelnetz eingespeist. Erdfunkstellen für Kabelfernsehen nennen sich Kabelkopfstationen. Moderne Nachrichtensatelliten besitzen Transponder, deren Sender so leistungsstark sind, dass sie vom Konsumenten direkt empfangen werden können. Für eine gute Signalqualität muss eine Quasi-Sichtverbindung zum Satelliten bestehen. Eine Signaldämpfung durch Wände, Häuser oder starken Regen erschwert den Empfang bis zur Unmöglichkeit. Manche Nachrichtensatelliten haben zusätzliche Funktionen. Sie können z. B. Korrektursignale für die Satellitennavigation übertragen. Die Nachrichtensatelliten umkreisen die Erde auf Kreis- bzw. Ellipsenbahnen. Die häufigste Art von Nachrichtensatelliten sind Satelliten, welche die Erde auf einer erdnahen Umlaufbahn umkreisen. Eine wichtige Rolle spielen auch geostationäre Satelliten, die von der Erde aus gesehen immer über demselben Ort stehen. Mit drei um jeweils 120° gedrehten Satelliten lässt sich so jeder Ort, bis auf die Polgebiete, auf der Erde erreichen. Für die Polgebiete nutzt man Satelliten auf erdnahen oder auch Molnija-Orbits mit hoher Bahnneigung gegenüber dem Äquator. Geschichte Der erste Nachrichtensatellit war SCORE und wurde am 18. Dezember 1958 in den USA gestartet. Er konnte Nachrichten direkt ohne Verzögerung weitergeben oder nahm beim Überfliegen einer Bodenstation eine Nachricht auf Band auf und spielte sie über einer anderen Bodenstation wieder ab. SCORE funktionierte jedoch nur 13 Tage. Das Fehlen eines Rückkanales war jedoch für normale Nachrichtenübertragungen (Telefon etc.) nicht tragbar. Außerdem war die Betriebszeit zu gering. Deshalb wurde am 12. August 1960 der erste passive Nachrichtensatellit Echo 1 gestartet. Er war ein Ballon mit einer Reflektierenden Metalloberfläche. Echo 1 reflektierte die Signale, die eine Bodenstation zu ihm sendete, zu einer anderen weiter, während diese ihn gleichzeitig dazu benutzen konnte, auf einer anderen Frequenz ein Signal zur ersten Bodenstation reflektieren zu lassen. Als man allerdings später erkannte, dass nur unter Verwendung von aktiven Satelliten eine effektive Informationsübertragung möglich ist, musste weiter in diese Technologie investiert werden. Am 10. Juli 1962 wurde schließlich der erste Fernsehsatellit, mit dem Namen Telstar in den Weltraum geschickt. Dieser ermöglichte bereits eine Fernsehübertragung zwischen Japan, den USA und Europa. Am 14. Februar 1963 wurde Syncom 1 als erster Nachrichtensatellit in eine geostationäre Umlaufbahn geschickt. Da er allerdings seinen Dienst verweigerte, wurde er am 26. Juli 1963 durch Syncom 2 ersetzt. Er war der erste so genannte Synchronsatellit für den terrestrischen Fernsprechverkehr und Telekommunikation. Der erste kommerziell genutzte geostationäre Nachrichtensatellit war Intelsat I, auch genannt „Early Bird“. Dieser startete am 6. April 1965 von Cape Kennedy aus in den Weltraum. Europa begann erst etwa in der Mitte der 1970er Jahre mit dem Start von Nachrichtensatelliten. Die ersten beiden hießen Symphonie 1 und Symphonie 2 und wurden am 19. Dezember 1974 bzw. am 27. August 1975 gestartet. Sie entstanden aus einer Zusammenarbeit zwischen Frankreich und Deutschland. Im Jahr 2009 sollte mit dem Start des Mars Telecommunications Orbiter zum ersten Mal auch ein Nachrichtensatellit auf den Weg zu einem anderen Planeten geschickt werden. Dort sollte er durch die Erhöhung der Übertragungskapazität zwischen den Marssonden und der Erde die Erforschung des Mars unterstützen. Im Juli 2005 wurde aber die Mission von der NASA aus Budgetgründen gestrichen. Ende 2019 begann SpaceX, Satelliten für die Starlink-Konstellation in erdnahe Orbits zu starten. Ende 2021 betrieb das Unternehmen 1644 einsatzfähige Satelliten und ist damit der größte Betreiber von Kommunikationssatelliten. Siehe auch Rundfunksatellit Liste der geostationären Satelliten Weblinks Amateurfunksatelliten – Dachorganisation AMSAT (englisch) Einzelnachweise Kommunikationsgerät
Q149918
195.147523
79842
https://de.wikipedia.org/wiki/Kojote
Kojote
Der Kojote (Canis latrans, Coyote; von aztek. coyōtl), auch bekannt als nordamerikanischer Präriewolf oder Steppenwolf, gehört zur Familie der Hunde (Canidae) und sieht einem kleineren Wolf ähnlich. Das Verbreitungsgebiet dieser Art erstreckt sich heute von Zentralamerika bis in die nördlichen Regionen Kanadas und Alaskas. Ursprünglich war das Verbreitungsgebiet auf die Prärieregionen und das Buschland im Westen und Mittleren Westen Nordamerikas begrenzt. Durch den Rückgang des Wolfsbestandes und die Veränderungen des Lebensraums in Folge der sich ausbreitenden Besiedelung Nordamerikas hat der Kojote sich jedoch neuen Lebensraum erobern können. Während der letzten Jahrzehnte hat er die gesamte östliche Hälfte Nordamerikas besiedelt. Als anpassungsfähiger Kulturfolger ist diese Art mittlerweile auch in Stadtgebieten anzutreffen. Merkmale Der Kojote erreicht eine Gesamtlänge von 110 cm. Die Schulterhöhe beträgt 50 cm. Das Gewicht liegt im Schnitt bei 14 kg und kann zwischen 9 und 22 kg liegen. Seine Fellfarbe (siehe auch Coyotenfell) variiert geographisch. Kojoten in höheren Gebieten haben dunkleres Fell als die, die in Wüsten leben und beige oder grau sind. Kehle und Brust sind weiß. Albinos sind sehr selten. Die Haare der nördlichen Unterarten sind länger als die der südlichen. Vom Wolf ist er durch seine deutlich geringere Größe zu unterscheiden, wobei er auch magerer erscheint. Außerdem hat er eine schmalere Schnauze, größere Ohren und kürzere Beine als sein großer Verwandter. Er weist weniger Farbvarianten als der Wolf auf. Typisch für den Kojoten ist der große, buschige Schwanz, den er meist tief am Boden hält. Lebensraum Kojoten bewohnen den nordamerikanischen Kontinent vom subpolaren Norden Kanadas und Alaskas über die gesamten USA und Mexiko bis nach Costa Rica. Sie haben sich einer Vielzahl von Habitaten angepasst und können in dichten Wäldern ebenso leben wie in der Prärie. Sie breiteten sich erst nach der Ankunft der Siedler aus, davor waren sie nur in der Prärie vorhanden. Wegen der Ausrottung der Wölfe konnten sie deren Lebensraum übernehmen. Es besteht die Sorge, dass der Kojote sich weiter nach Südamerika verbreiten könnte. Lebensweise und Ernährung Der Kojote hat ein weniger ausgeprägtes und festgelegtes Sozialverhalten als der Wolf. Abhängig von seinem jeweiligen Lebensraum jagt er entweder alleine oder in kleinen Gruppen. Kojoten haben den Ruf, Aasfresser zu sein. Obwohl sie tatsächlich auch von Aas leben, erjagen sie den Großteil ihrer Nahrung selbst. Mäuse und Hasen stellen etwa 90 Prozent der Beutetiere, viel seltener werden Vögel, Schlangen, Füchse, Opossums und Waschbären gefressen, daneben auch Jungtiere größerer Säugetierarten. Ausgewachsene Hirsche können, wenn sie krank oder alt sind, von einem Rudel Kojoten erlegt werden; sie können sogar Bärenjunge reißen. Im Osten Nordamerikas, wo Kojoten generell größer sind als ihre westlichen Artgenossen, gibt es einzelne Populationen, die sich zunehmend auf Arten wie den Weißwedelhirsch spezialisieren. Sie profitieren dabei davon, dass der Bestand des Weißwedelhirschs in den letzten Jahrzehnten stark angestiegen ist. Der Kojote frisst auch pflanzliche Nahrung als Beikost, zum Beispiel Früchte und Beeren. Im Death Valley fressen sie im Frühling große Mengen an Käfern und Raupen. Sie erlegen Klapperschlangen, indem sie sie an den Köpfen packen und dann schütteln. Zum Konflikt mit dem Menschen kommt es unter anderem, weil sie auch Haustiere töten. Schafe gehören durchaus in ihr Beutespektrum. In der Nähe von Wohngebieten gehen Kojoten zunehmend an die Abfalltonnen und suchen dort nach Fressbarem. Sie fressen aber auch herumstreunende Hauskatzen und kleinere Hunde. In städtischen Gebieten des südlichen Kalifornien enthielt jeder fünfte untersuchte Kothaufen eines Kojoten Überreste von Katzen, in New York war es hingegen nur jeder zwanzigste. Fortpflanzung und Entwicklung Kojoten haben eine Tragzeit von etwa 60 Tagen und bringen in einem Wurf durchschnittlich vier bis sechs Welpen zur Welt, meist Ende April oder Anfang Mai. Die mittlere Lebenserwartung in freier Wildbahn beträgt sechs bis acht Jahre, das maximale Alter 14,5 Jahre. Beide Elternteile helfen bei der Fütterung der Welpen. Im Herbst suchen sich die Jungen ihr eigenes Jagdgebiet, meist innerhalb von 15 Kilometern. Im Alter von einem Jahr sind sie geschlechtsreif. Kojoten und Haushunde sind untereinander fruchtbar. Es kommt gelegentlich zu solchen Paarungen zwischen verwilderten Hunden und Kojoten; die daraus entstehenden Hybride werden in Nordamerika Coydogs genannt. Es kommt aber auch vor, dass viele dieser Coydogs lediglich besonders große Kojoten sind und daher verwechselt werden. Ebenso ist es zu Paarungen von Kojoten und Rotwölfen gekommen. Ob es in freier Wildbahn zu einer Paarbildung des eigentlichen Wolfs mit dem Kojoten kommen kann, ist umstritten, denn Kojoten gehören zur Jagdbeute des Wolfs. Doch wird auch vom Coywolf berichtet, der deutlich aggressiver ist als der Kojote. Vermutlich sind auch der Rotwolf und der sogenannte Eastern timber wolf (eine Unterart des Grauwolfs), die beide kleiner sind als dieser, Hybriden aus Kojote und Wolf. Jedenfalls weisen sie gegenüber dem Kojoten keine langen getrennten genetischen Entwicklungslinien auf, was durch (regional unterschiedlich starke) Einkreuzung überlagert wird. Gefährdung und Schutz Der Kojote wird von der International Union for Conservation of Nature and Natural Resources (IUCN) aufgrund seines großen Verbreitungsgebietes als nicht gefährdet (least concern) eingestuft. Kojoten sind in Nordamerika nicht geschützt. Während der Wolf durch die Nachstellung des Menschen immer seltener wurde, hat der Kojote hiervon profitiert. Der Biologe David George Haskell begründet dies unter anderem damit, dass europäische Siedler eine kulturbedingte Ablehnung gegenüber dem Wolf hatten. Gleichzeitig überformten die europäischen Siedler die nordamerikanische Landschaft in einer Weise, die dem Wolf das Überleben in diesen Regionen erschwerten. In der Folge kam es in großen Regionen Nordamerikas zu einer vollständigen Ausrottung der Art oder zur Hybridisierung. Der anpassungsfähigere Kojote rückte in die vom Wolf nicht mehr besetzten Habitate nach und hat diese Art an der Spitze der Nahrungskette vielerorts abgelöst. Der Kojote bildet größere Rudel und wird im neu besiedelten Osten Nordamerikas auch durchschnittlich größer als im Westen. Welche Auswirkungen die Einwanderung des Kojoten im Osten Nordamerikas hat, ist nach Ansicht Haskells nicht abzuschätzen: Der Nordosten Nordamerikas wurde von Kojoten in den 1930er und 1940er Jahren besiedelt. In den 1950er Jahren begann die Art, ihre Verbreitungsgrenze immer weiter nach Süden auszudehnen. In Florida wurden Kojoten erstmals in den 1980er Jahren gesichtet. Auch durch massenhafte Jagd konnte die Art in ihrem gesunden Bestand nicht gefährdet werden. Kojoten besiedeln als Kulturfolger zunehmend amerikanische Großstädte, wo sie sich in der Regel von menschlichen Abfällen ernähren. So wurde im April 2006 als letzte amerikanische Metropole auch Washington D.C. vom Kojoten „erobert“. Im März des Jahres 2006 sorgte ein Kojote im New Yorker Central Park für Aufsehen. In Chicago haben Forscher beobachtet, dass Kojoten Ansätze zu einem „Verständnis“ der Straßenverkehrsordnung zeigen: Beim Überqueren von Einbahnstraßen schauen sie nur in eine Richtung nach entgegenkommenden Fahrzeugen, bei mehrspurigen Straßen nutzen sie den Mittelstreifen als Zwischenhalt. Kojoten in der Kultur In der Mythologie vieler nordamerikanischer Indianerstämme nimmt der Kojote eine zentrale Rolle ein. Er wird meist als listiger Trickster dargestellt. In den Cartoons Road Runner und Wile E. Coyote ist der Kojote als stets hungrig und vom Pech verfolgt dargestellt. Den Road Runner fängt er nie. Wegekuckucke werden tatsächlich wohl selten von Kojoten erbeutet. Jedoch sind Kojoten etwa doppelt so schnell wie sie. Der Aktions-Künstler Joseph Beuys hat einen Kojoten in seine Aktion I like America and America likes Me einbezogen. Die Rockband Modest Mouse veröffentlichte ein Video, in dem ein Kojote mit der Straßenbahn durch Portland fährt, inspiriert von einer wahren Begebenheit. Evolution und Systematik Der Kojote wird der Gattung der Wolfs- und Schakalartigen (Canis) als Canis latrans zugeordnet. Dabei werden neben der Nominatform Canis latrans latrans weitere 18 Unterarten unterschieden. Im Rahmen der Vorstellung der Genomsequenz des Haushundes wurde von Lindblad-Toh et al. 2005 eine phylogenetische Analyse der Hunde (Canidae) auf der Basis molekularbiologischer Daten veröffentlicht. Der Kojote wird dabei dem Wolf (Canis lupus) und dem Haushund (Canis lupus familiaris) als Schwesterart gegenübergestellt. Die Schwesterart dieses Taxons wiederum ist der Goldschakal (Canis aureus). Im Rahmen dieser Darstellung wurde die Monophylie der Wolfs- und Schakalartigen (Gattung Canis) angezweifelt, da der Streifenschakal (Canis adustus) und der Schabrackenschakal (Canis mesomelas) Schwesterarten als basalste Arten allen anderen Vertretern der Gattung sowie zusätzlich dem Rothund (Cuon alpinus) und dem Afrikanischen Wildhund (Lycaon pictus) gegenübergestellt werden. Diese beiden Arten müssten entsprechend in die Gattung Canis aufgenommen werden, damit sie als monophyletische Gattung Bestand hat. Literatur Marc Bekoff: Canis latrans. In: Mammalian Species. Nr. 79, Juni 1977, , S. 1–9. Elli H. Radinger: Die Wölfe von Yellowstone. Von Döllen, 2004, ISBN 978-3933055156. Elli H. Radinger: Die wilden Hunde Gottes. Kojoten, Schakale & Co. In: Wolf Magazin. 1-2012. edition tieger, Autorenhaus-Verlag, 2012, ISBN 9783866710979. Thomas Riepe: Yellowstone: Im Land der Wölfe und Kojoten. Monsenstein und Vannerdat, 2005, ISBN 3-86582-124-3. Weblinks Kojote bei Digital Desert (engl.) taz-Artikel: Kojote besiedelt zunehmend amerikanische Großstädte Einzelnachweise Hunde
Q44299
112.370313
219
https://de.wikipedia.org/wiki/Automobil
Automobil
Ein Automobil, kurz Auto (in Deutschland amtlich Kraftfahrzeug, in der Schweiz amtlich Motorwagen), ist ein mehrspuriges motorgetriebenes Straßenfahrzeug zur Beförderung von Personen oder Lasten. Umgangssprachlich nennt man „Auto“ vor allem Fahrzeuge, die zum Transport von Personen bestimmt sind; amtlich werden diese als Personenkraftwagen (kurz: Pkw) bezeichnet, oder – bei mehr Sitzplätzen – als Kraftomnibus. Soll ein Fahrzeug mehrheitlich Güter transportieren, heißt es amtlich „Lastkraftwagen“ (Lkw). Der weltweite Fahrzeugbestand lag im Jahr 2010 bei über 1,015 Milliarden Automobilen und stieg seitdem kontinuierlich an. 2011 wurden weltweit über 80 Millionen Automobile gebaut. In Deutschland waren im Jahr 2012 etwa 51,7 Millionen Kraftfahrzeuge zugelassen, davon sind knapp 43 Millionen Personenkraftwagen. Wortherkunft Automobil („Selbstbeweger“) ist ein substantiviertes Adjektiv, abgeleitet von , und . Die Wortschöpfung entstand in den 1860er-Jahren in Frankreich und diente damals – wie locomobile – zur Unterscheidung von den üblichen Landfahrzeugen, die damals von Pferden gezogen wurden. So bezeichnete französisch 1875/1876 eine mit Pressluft betriebene Straßenbahn. Die Anwendung im heutigen Sinn setzte sich in den 1890er-Jahren durch: 1893 hieß es in der Publikation Radfahrergeschichten noch mit französischem Plural: „In den Straßen von Paris wird es bald komisch aussehen. Viele Fiaker fahren bereits ohne Pferde als numerirte Automobiles umher.“ Anschließend wurde das Wort im Deutschen schnell heimisch, zunächst nach französischem Vorbild noch als Femininum, unter dem Einfluss der Kurzform Auto aber bald schon als Neutrum. Das älter deutsche Wort war hingegen Motorwagen. Die deutschen Äquivalente Kraftfahrzeug und Kraftwagen wurden 1917 amtlich eingeführt. Die Definition „selbstbewegendes Fahrzeug“ würde auch motorisierte Zweiräder und Schienenfahrzeuge einschließen. In der Regel wird unter einem Automobil jedoch ein mehrspuriges und nicht schienengebundenes Kraftfahrzeug verstanden, also ein Pkw, Bus oder Lkw. In der Alltagssprache ist meist nur der Pkw gemeint. Der Darmstädter Dozent für Kraftwagen, Freiherr Löw von und zu Steinfurth versuchte, sich in seinem Standardwerk Das Automobil – sein Bau und sein Betrieb über alle Ausgaben ab 1909 hinweg an möglichst exakten Definitionen von „Automobil“. In der 5. Auflage von 1924 schreibt er: Um diese strenge Klassifizierung zu beleuchten, lässt er beispielsweise Forderung 2 weg und kommt damit „zu den sogenannten gleislosen Bahnen, die aus elektrischen Wagen bestehen, denen durch eine Oberleitung die Energie zugeführt wird.“ Im Englischen ist mit einem automobile bzw. car nur ein Pkw gemeint. Eine Übersetzung im Sinne des zitierten von und zu Steinfurth gibt es im Englischen nicht. Das in diesem Zusammenhang oft erwähnte Wort motor vehicle schließt auch Krafträder mit ein und ist demzufolge dem deutschen Begriff Kraftfahrzeug gleichzusetzen. Geschichte Der Franzose Nicholas Cugnot erbaute 1769 einen Dampfwagen – das erste bezeugte und tatsächlich erbaute Fahrzeug, das nicht auf Muskelkraft oder einer anderen äußeren Kraft (wie z. B. Wind) basierte (und kein Spielzeug war). Im Jahr 1863 machte Étienne Lenoir mit seinem „Hippomobile“ eine 18 km lange Fahrt; es war das erste Fahrzeug mit einem Motor mit interner Verbrennung. Jedoch gilt das Jahr 1886 mit dem Motordreirad „Benz Patent-Motorwagen Nummer 1“ des deutschen Erfinders Carl Benz als das Geburtsjahr des „modernen“ Automobils mit Verbrennungsmotor, da es große mediale Aufmerksamkeit erregte und zu einer Serienproduktion führte. Zuvor bauten auch andere Erfinder motorisierte Gefährte mit ähnlichen oder gänzlich anderen Motorkonzepten. Motorisierte Wagen lösten in nahezu allen Bereichen die von Zugtieren gezogenen Fuhrwerke ab, da sie deutlich schneller und weiter fahren und eine höhere Leistung erbringen können. Durch diesen Vorteil steigerte sich seit dem Geburtsjahr des Automobils die Weite der zurückgelegten Strecken, u. a. deshalb wurde dem motorisierten Straßenverkehr immer mehr Raum zugestanden. Aufbau und Form Zu den wesentlichen Bestandteilen des Automobils gehören das Fahrwerk mit Fahrgestell und anderen Teilen, ferner Karosserie, Motor, Getriebe und Innenraum. Europäische Pkw bestehen zu über 54 Prozent aus Stahl, die Hälfte davon hochfeste Stahlgüten. Die Technik der Fahrzeuge müssen Ingenieure und Designer in eine funktionale, ergonomische und ästhetische Form bringen, die die Markenwerte des Herstellers vermittelt und Emotionen weckt. Beim Kauf eines Autos ist das Fahrzeugdesign heute eines der wichtigsten Entscheidungskriterien. Sicherheit Nach Zahlen der WHO sterben 1,25 Millionen Menschen jährlich an den direkten Folgen von Verkehrsunfällen. Die Sicherheit von Insassen und potenziellen Unfallgegnern von Kraftfahrzeugen ist unter anderem abhängig von organisatorischen und konstruktiven Maßnahmen sowie dem persönlichen Verhalten der Verkehrsteilnehmer. Zu den organisatorischen Maßnahmen zählen zum Beispiel Verkehrslenkung (Straßenverkehrsordnung mit Verkehrsschildern oder etwas moderner durch Verkehrsleitsysteme), gesetzliche Regelungen (Gurtpflicht, Telefonierverbot), Verkehrsüberwachung und straßenbauliche Maßnahmen. Die konstruktiven Sicherheitseinrichtungen moderner Automobile lassen sich grundsätzlich in zwei verschiedene Bereiche gliedern. Passive Sicherheitseinrichtungen sollen die Folgen eines Unfalls mildern. Dazu zählen beispielsweise der Sicherheitsgurt, die Sicherheitskopfstütze, der Gurtstraffer, der Airbag, der Überrollbügel, deformierbare Lenkräder mit ausklinkbaren Lenksäulen, die Knautschzone, der Seitenaufprallschutz sowie konstruktive Maßnahmen zum Unfallgegnerschutz. Aktive Sicherheitseinrichtungen sollen einen Unfall verhindern oder in seiner Schwere herabsetzen. Beispiele hierfür sind das Antiblockiersystem (ABS) sowie das elektronische Stabilitätsprogramm (ESP). Zu den persönlichen Maßnahmen zählen Verhaltensweisen wie eine defensive Fahrweise, das Einhalten der Verkehrsvorschriften oder Training der Fahrzeugbeherrschung, beispielsweise bei einem Fahrsicherheitstraining. Diese sowie die Verkehrserziehung speziell für Kinder helfen das persönliche Unfallrisiko zu vermindern. Alle Maßnahmen zur Erhöhung der Verkehrssicherheit zusammen können dazu beitragen, dass die Zahl der bei einem Verkehrsunfall getöteten Personen reduziert wird. In den meisten Industrienationen sind die Opferzahlen seit Jahren rückläufig. In Europa spielen Verkehrsunfälle als Todesursache heute eine geringere Rolle als vor einigen Jahrzehnten, die Zahl der Todesopfer liegt unter den Zahlen der Drogentoten oder Suizidenten. So fielen in Deutschland, Österreich, den Niederlanden oder der Schweiz die Opferzahlen seit den 1970er-Jahren, trotz kaum rückläufiger Zahlen der Verkehrsunfälle, auf ein Drittel. 2011 ist in Deutschland die Zahl der Verkehrstoten zum ersten Mal seit 20 Jahren wieder gestiegen, in Österreich und der Schweiz allerdings auf dem historisch tiefsten Stand. Nach längerer freiwilliger Aktion wurde das Fahren mit eingeschaltetem Licht am Tag in Österreich am 15. November 2005 verpflichtend eingeführt und 2007 auch per Strafe eingefordert. Zum 1. Januar 2008 wurde die Lichtpflicht allerdings wieder abgeschafft. Ziel dieser Kampagne war es, die menschlichen Sinneseindrücke auf die Gefahrenquellen zu fokussieren und damit die Zahl der Verkehrstoten zu verringern. Schätzungen des Bundesministeriums zufolge wurden jährlich 15 Verkehrstote weniger erwartet. Allerdings zeigte sich nicht der erwartete Effekt, da vermehrt die Aufmerksamkeit von unbeleuchteten Gefahrenquellen (Hindernisse oder andere Verkehrsteilnehmer z. B. Fußgänger) weg zu den bewegten und beleuchteten Fahrzeugen gelenkt wurde. Auch in Norwegen wurden in den Jahren nach der Einführung der Lichtpflicht 1985 deutlich mehr Verkehrstote gezählt als in den Jahren davor. Trotzdem wird in einigen Ländern (etwa Deutschland) weiterhin die Einführung einer solchen Maßnahme in Erwägung gezogen. Autonomes Fahren Sowohl Automobilbauer und Zulieferbetriebe als auch Unternehmen aus der IT-Branche (insbesondere Google und Uber) forschen und entwickeln am autonom fahrenden Kraftfahrzeug (meist Pkw). . Erfahrungen amerikanischer Autoversicherungen würden nahelegen, dass bereits die Anzeigen der Assistenz-Sensorik das Unfallrisiko senken können. Auch wird die Ansicht vertreten, dass ein gewisses Maß an Unsicherheit den Erfolg autonomer Automobile nicht verhindern wird. Das „Wiener Übereinkommen über den Straßenverkehr“ von 1968 verbot lange Zeit autonome Automobile, wurde jedoch Mitte Mai 2014 von der UN geändert, so dass Davor schrieb es unter anderem vor, dass jedes in Bewegung befindliche Fahrzeug einen Fahrer haben und dieser das Fahrzeug auch beherrschen muss. Zu klären sind insbesondere Fragen bezüglich des Haftungsrechts bei Unfällen, wenn technische Assistenzsysteme das Fahren übernehmen. Im bisher dem Fortschritt zugeneigten Kalifornien, das lange Zeit liberale Regelungen für autonome Automobile hatte, wurde 2014 die gesetzliche Situation jedoch verschärft – jetzt muss immer ein Mensch am Steuer sitzen, der „jederzeit eingreifen kann“. Einer Studie des Bundesministeriums für Wirtschaft und Energie zufolge rechnet man damit, dass zumindest die Automatisierung einiger Fahrfunktionen bis spätestens 2020 technisch realisierbar sein werden, während fahrerlose Fahrzeuge auf öffentlichen Straßen erst weit später zu erwarten seien. Auch Fahrzeuge ohne Lenkrad, Bremse und Gaspedal werden erprobt. In diesem Zusammenhang werden Verkehrskonzepte wie ein erweitertes Car Sharing diskutiert: Man bucht das Auto übers Internet und steigt bei Bedarf zu. Keiner der Insassen benötigt eine Fahrerlaubnis. Kosten Kosten für den Fahrzeughalter Die Gesamtbetriebskosten eines Autos setzen sich zusammen aus Fixkosten (auch „Unterhaltskosten“ genannt) und variablen Kosten (auch „Betriebskosten“ genannt), hinzu kommt der Wertverlust des Autos. Die Kosten werden von vielen Menschen unterschätzt. Fixkosten Die Fixkosten fallen unabhängig von der jährlichen Kilometerleistung an. Sie setzen sich im Wesentlichen zusammen aus der Kraftfahrzeugsteuer, den obligatorischen Kraftfahrzeug-Haftpflichtversicherungen, in vielen Ländern eines zwangsweisen Mautbeitrags sowie sporadisch vorgeschriebenen Technischen Prüfungen. Daneben können freiwillige Zusatzversicherungen abgeschlossen werden, wie eine Kaskoversicherung sowie weitere Versicherungen oder zusätzliche versicherungsähnliche Leistungen, welche die Automobilclubs bei einer Mitgliedschaft anbieten. Betriebskosten Die Betriebskosten hängen weitgehend von der jährlichen Kilometerleistung ab. Es entstehen Aufwände für den Energieverbrauch (bei Verbrennungsmotoren ist das der Kraftstoffverbrauch), den Ersatz von Verschleißteilen (insbesondere Autoreifen), sowie für weitere Wartung und ggf. außerplanmäßige Reparaturen. Die Wartung ist je nach Zeit und Kilometern erforderlich. Typische Zeitintervalle liegen bei 1 bis 2 Jahren, typische Kilometerintervalle bei 10.000 km bis 30.000 km. Werden die Wartungsintervalle nicht eingehalten, kann das zu Schwierigkeiten mit Garantieansprüchen bei Defekten führen. Je nach individuellem Wunsch entstehen Kosten für die Fahrzeugreinigung. Nicht direkt kilometerabhängig sind Park- und Mautgebühren. Anschaffungskosten Der Kaufpreis verringert sich sofort als Wertverlust auf den jeweiligen, zeitabhängigen Verkehrswert, während beim Leasing ein ähnlicher Verlust durch Zinszahlungen entsteht. Beispielwerte Statistisches Bundesamt und ADAC veröffentlichen vierteljährlich einen Autokosten-Index. Dieser gibt an, um wie viel Prozent sich verschiedene Kostenbestandteile verteuert oder verbilligt haben. Der ADAC veröffentlicht eine Voll-Kalkulation für Neuwagen, eingeteilt in 6 Klassen (Stand: 04/2018): Kleinstwagen: Citroen C1 VTi 72 Start: 321 €/Monat Kleinwagen: Dacia Sandero SCe 75 Essential: 318 €/Monat Untere Mittelklasse: Dacia Logan MCV Sce 75 Access: 323 €/Monat Mittelklasse: Skoda Octavia 1.2 TSI Active: 502 €/Monat Obere Mittelklasse: Skoda Superb Combi 1.6 TDI Active: 614 €/Monat Oberklasse: Porsche 911 Carrera Coupé: 1357 €/Monat Angeführt ist das jeweils günstigste Modell jeder Klasse. Von der Allgemeinheit getragene Kosten Der Pkw-Verkehr bringt externe Kosten, insbesondere im Bereich Umweltverschmutzung und Unfallfolgekosten, mit sich. Viele der dabei betrachteten Größen sind kaum bzw. nur sehr ungefähr zu quantifizieren, weshalb verschiedene Publikationen zum Thema unterschiedlich hohe externe Kosten benennen. Eine Studie aus dem Jahr 2022 kommt zu dem Schluss, dass jeder Autofahrer im Jahr mit Rund 5.000 Euro von der Allgemeinheit subventioniert wird. Einbezogen wurden zehn verschiedene soziale oder externe Kostenarten, darunter Luftverschmutzung, Lärmbelastung, Schaffung und Erhalt der Straßeninfrastruktur, Parken im öffentlichen Straßenraum und Kosten des Klimawandels. Gemäß Umweltbundesamt betrugen die externen Kosten im Straßenverkehr in Deutschland im Jahr 2005 insgesamt 76,946 Mrd. Euro, wovon 61,2 Mrd. auf den Personen- und 15,8 Mrd. auf den Güterverkehr entfielen. Die Unfallkosten machten dabei 52 % (entspricht 41,7 Mrd. Euro) der externen Kosten aus. Das Umweltbundesamt berechnete 2007, dass Pkw in Deutschland durchschnittlich etwa 3 Cent pro Kilometer an Kosten für Umwelt und Gesundheit verursachen, die hauptsächlich durch Luftverschmutzung entstehen. Das ergibt rechnerisch Kosten von 3000 Euro für einen Pkw mit 100.000 Kilometern Laufleistung. Für Lkw betragen diese Kosten sogar 17 Cent pro Kilometer. Diese externen Kosten werden nicht oder nur teilweise durch den Straßenverkehr getragen, sondern u. a. durch Steuern sowie Krankenkassen- und Sozialversicherungsbeiträge finanziert. Die Kostenunterdeckung des Straßenverkehrs (also alle durch den Straßenverkehr direkt und indirekt verursachten Kosten abzüglich aller im Zusammenhang mit dem Straßenverkehr geleisteten Steuern und Abgaben) beziffert das Umweltbundesamt für das Jahr 2005 auf rund 60 Mrd. Euro. Der österreichische Pkw-Verkehr trug im Jahr 2000 nur einen Teil der von ihm verursachten Kosten: Ein großer Teil der Kosten für die Errichtung und Erhaltung der Straßen sowie der Sekundärkosten wie Unfall- und Umweltkosten (Lärm, Luftschadstoffe) aller Verkehrsteilnehmer werden von der Allgemeinheit übernommen. Während der Pkw-Verkehr für 38 % der durch ihn verursachten Kosten aufkam, trugen Busse die eigenen Kosten zu 10 % und Lkw zu 21 %. Das Handbuch über die externen Kosten des Verkehrs der Europäischen Union bezifferte 2019 die wirtschaftlichen Kosten einer 20.000 km langen Autofahrt wie folgt: 900 € für Unfallkosten 142 € für die Kosten der Luftverschmutzung 236 € für die Kosten des Klimawandels 236 € für die Auswirkungen der Lärmbelästigung 76 € für die Produktionskosten 110 € für den Verlust von Lebensraum Auswirkungen der Automobilisierung Wirtschaft Der Pkw-Verkehr ist Forschungsgegenstand der Volkswirtschaft, namentlich der Verkehrswissenschaft. Das Automobil als industrielles Massenprodukt hat den Alltag der Menschheit verändert. Seit dem Beginn des 20. Jahrhunderts hat es mehr als 2.500 Unternehmen gegeben, die Automobile produzierten. Viele Unternehmen, die im 19. Jahrhundert Eisenwaren oder Stahl produzierten, fingen Mitte des Jahrhunderts mit der Fertigung von Waffen oder Fahrrädern an und entwickelten so die Kenntnisse, die Jahrzehnte später im Automobilbau benötigt wurden. Heute gibt es neben den großen Herstellern viele kleine Betriebe, die als Automanufaktur zumeist exklusive Fahrzeuge produzieren, beispielsweise Morgan (GB). Verkehr Die Bedeutung des Automobils basiert neben der vergleichsweise hohen physischen Leistungsfähigkeit des Systems auch auf der hohen Freizügigkeit in den Nutzungsmöglichkeiten bezüglich der Transportaufgaben und der Erschließung räumlicher bzw. geografischer Bereiche. Bis ins 19. Jahrhundert gab es nur wenige Fortbewegungsmittel, zum Beispiel die Kutsche oder das Pferd. Die Verbreitung der Eisenbahn steigerte zwar die Reisegeschwindigkeit, aber man war an Fahrpläne und bestimmte Haltepunkte gebunden. Mit dem Fahrrad stand ab Ende des 19. Jahrhunderts erstmals ein massentaugliches Individualverkehrsmittel zur Verfügung, allerdings ermöglichte erst das Automobil individuelle motorisierte Fortbewegung sowie den flexiblen und schnellen Transport auch größerer Lasten. In den 1960er Jahren herrschte eine regelrechte Euphorie, woraus eine vorherrschende Meinung entstand, der gesamte Lebensraum müsse der Mobilität untergeordnet werden („Autogerechte Stadt“). Schon in den 1970er Jahren wurden einige solche Projekte jedoch gestoppt. Die Emissionen aus dem Verkehr steigen auch im Jahre 2011 immer noch und im Gegensatz zu den Brennstoffen können die vereinbarten Ziele zum Klimaschutz bei den Treibstoffen (in der Schweiz) nicht erfüllt werden. Zum 1. Januar 2004 waren in Deutschland 49.648.043 Automobile zugelassen. Im Vergleich mit Fußgängern und Fahrrädern, aber auch mit Bussen und Bahnen hat das Auto einen höheren Platzbedarf. Insbesondere in Ballungsgebieten führt dies zu Problemen durch Staus und Bedarf an öffentlichen Flächen, wodurch sich einige der Vorteile des Automobils auflösen. Der Güterverkehr auf der Straße ist ein elementarer Bestandteil der heutigen Wirtschaft. So erlaubt es die Flexibilität der Nutzfahrzeuge, leicht verderbliche Waren direkt zum Einzelhandel oder zum Endverbraucher zu bringen. Mobile Baumaschinen übernehmen heute einen großen Teil der Bauleistungen. Die Just-in-time-Produktion ermöglicht einen schnelleren Bauablauf. Beton wird in Betonwerken gemischt und anschließend mit Fahrmischern zur Baustelle gebracht, mobile Betonpumpen ersparen den Gerüst- oder Kranbau. Umwelt und Gesundheit Der massenhafte Betrieb von Verbrennungsmotoren in Autos führt zu Umweltproblemen, einerseits lokal durch Schadstoffemissionen, die je nach Stand der Technik vielfach vermeidbar sind, andererseits global durch den systembedingten CO2-Ausstoß, der zur Klimaerwärmung beiträgt. Die Luftverschmutzung durch die Abgase der Verbrennungsmotoren nimmt, gerade in Ballungsräumen, oft gesundheitsschädigende Ausmaße an (Smog, Feinstaub). Die Kraftstoffe der Motoren beinhalten giftige Substanzen wie Xylol, Toluol, Benzol sowie Aldehyde. Noch giftigere Bleizusätze sind zumindest in Europa und den USA nicht mehr üblich. Allein in Deutschland sterben jährlich 11.000 Menschen infolge von Luftverschmutzung durch den Straßenverkehr; Todesfälle, die potentiell vermieden werden könnten. Diese Zahl ist 3,5 Mal so hoch wie die Zahl der Todesopfer durch Unfälle. Auch der überwiegend vom Automobil verursachte Straßenlärm schädigt die Gesundheit. Hinzu kommt, dass das Autofahren, besonders über längere Zeit, teilweise mit Bewegungsmangel verbunden sein kann. Über die Folgen, welche vom massenhaften Reifenverschleiß ausgehen, ist bisher erst wenig bekannt. Ein großer Teil davon wird mit dem Regen in die Oberflächengewässer gespült. Durch das freigesetzte Ozonschutzmittel 6PPD können Fischsterben verursacht werden. Der Verbrauch von Mineralöl, einem fossilen Energieträger zum Betrieb konventioneller Automobile erzeugt einen CO2-Ausstoß und trägt damit zum Treibhauseffekt bei. Nach Planungen der EU-Kommission sollen bis zum Jahr 2050 Autos mit Verbrennungskraftmaschinenantrieb aus den Innenstädten Europas gänzlich verbannt werden. Inzwischen will das EU-Parlament den Verkauf von Neuwagen mit Verbrennungsmotor ab 2035 verbieten. Die EU-Umweltminister hingegen, wollen ab 2035 nur noch Neuwagen ohne CO2-Emissionen zuzulassen. Der Flächenverbrauch für Fahrzeuge und Verkehrswege verringert den Lebensraum für Menschen, Tiere und Pflanzen. Das Platz- und Parkplatzproblem der Ballungsgebiete zeigte sich bereits in den 1920er Jahren und schon 1929 verfolgte der deutsche Ingenieur und Erfinder Engelbert Zaschka in Berlin den Ansatz des zerlegbaren Zaschka-Threewheelers (Faltauto). Dieses Stadtauto-Konzept hatte das Ziel, kostengünstig und raumsparend zu sein, indem sich das Fahrzeug nach Gebrauch zusammenklappen ließ. Die Fertigung von Automobilen verbraucht darüber hinaus erhebliche Mengen an Rohstoffen, Wasser und Energie. Greenpeace geht von einem Wasserverbrauch von 20.000 l für einen Mittelklassewagen aus. Die Zeitschrift Der Spiegel berechnete 1998 für die Herstellung eines Pkw der oberen Mittelklasse (etwa Mercedes E-Klasse) gar 226.000 l Wasser. Die Wasserwirtschaft sieht branchenpositive 380.000 l für ein Fahrzeug als notwendig an. Das Automobil wird derzeit (2013) zu 85 Prozent recycelt und zu 95 Prozent verwertet. Bei metallischen Bestandteilen beträgt die Recyclingquote 97 Prozent. Einen Überblick zur Umweltfreundlichkeit von jeweils aktuellen Pkw-Modellen veröffentlicht der Verkehrsclub Deutschland (VCD) jährlich in der Auto-Umweltliste. Zu den Gefahren des Kraftfahrzeugverkehrs beziehungsweise zu den durch dessen Umwelteinwirkungen verursachten Kosten siehe die Kapitel Sicherheit bzw. Externe Kosten. Soziale Auswirkungen Die verbreitete Verwendung des Autos verändert die sozialen Räume – u. a. wurden folgende Auswirkungen in der Schweiz beklagt: Kinder können immer seltener unbeaufsichtigt auf der Straße spielen; Freizeit-Orte liegen weiter entfernt als früher; folglich weniger spontane körperliche Betätigung sowie zum Beispiel eine Halbierung der Nutzung des Fahrrades bei jungen Schweizern innerhalb von 20 Jahren. Die gesamte kindliche Entwicklung wird beeinflusst. Pkw-Verbrauchskennzeichnungsverordnung Seit 1. Dezember 2011 müssen in Deutschland Neuwagen mit einer Energieverbrauchskennzeichnung versehen werden. Die Klassen reichen von A+ bis G. Der Verbrauch wird auf das Fahrzeuggewicht bezogen, womit Vergleiche nur innerhalb einer Gewichtsklasse möglich sind. Dass ein leichterer Wagen bei gleicher Benotung weniger Energie für einen Transport benötigt als ein schwererer Wagen, ist an dem Label nicht erkennbar. Interessenverbände in Deutschland In Deutschland sind eine Reihe von Verbänden entstanden, die anfangs Dienstleistungen für Autofahrer auf Gegenseitigkeit organisierten, vor allem Pannenhilfe. Heute arbeiten sie zunehmend auch als Lobby-Verbände und vertreten die Interessen der Autofahrer und der Automobilindustrie gegenüber Politik, Industrie und Medien. Bereits 1899 wurde der Automobilclub von Deutschland (AvD) gegründet, der ein Jahr später die erste Internationale Automobilausstellung organisierte. 1911 war der Allgemeine Deutsche Automobil-Club, der ADAC, aus der 1903 gegründeten Deutschen Motorradfahrer-Vereinigung entstanden. Er ist heute mit 15 Millionen Mitgliedern Europas größter Club. Weitere Verbände in Deutschland sind der Auto Club Europa (ACE), der 1965 von Gewerkschaften gegründet wurde, sowie seit 1986 der ökologisch orientierte Verkehrsclub Deutschland (VCD), der zusätzlich auch die Interessen der anderen Verkehrsteilnehmer (Radfahrer, Fußgänger, ÖPNV-Benutzer) vertritt. Die Interessen der Automobilhersteller und deren Zulieferunternehmen vertritt der Verband der Automobilindustrie (VDA). Forschungseinrichtungen zum Thema Automobil Forschungsinstitut für Kraftfahrwesen und Fahrzeugmotoren Stuttgart (FKFS) Institut für Kraftfahrwesen Aachen (ika) der RWTH Aachen Statistische Wirtschaftsdaten zur Automobilproduktion Neue Entwicklungen Zu den neuen Entwicklungen gehören alternative Antriebe wie das Elektroauto (Elektrofahrzeug). Eine weitere Entwicklung ist das autonome Fahren (Autonomes Landfahrzeug). Durch Carsharing wechselt ein Auto vom Privatbesitz in einen Gemeinschaftsbesitz. Experimentell entwickelt werden zudem Prototypen von Flugautos. Siehe auch Statussymbol Verkehrsmittel Literatur Nach Erscheinungsjahr geordnet Wolfgang Sachs: Die Liebe zum Automobil: Ein Rückblick in die Geschichte unserer Wünsche. Rowohlt, Reinbek 1984, ISBN 3-498-06166-6. Peter M. Bode, Sylvia Hamberger, Wolfgang Zängl: Alptraum Auto: Eine hundertjährige Erfindung und ihre Folgen. Raben Verlag von Wittern, 1986. Hannes Krall: Das Automobil oder Die Rache des kleinen Mannes: Verborgene Bedeutungen des Internationalen Golf-GTI-Treffens. DRAVA Verlags- und Druckgesellschaft, 1991, ISBN 3-85435-138-0. Weert Canzler: Das Zauberlehrlings-Syndrom: Entstehung und Stabilität des Automobil-Leitbildes. Edition Sigma, 1996, ISBN 3-89404-162-5. Arnd Joachim Garth: Das Dialogomobil: Marketing und Werbung rund um das Automobil. Berlin, Verlag Werbweb-Berlin, 2001, ISBN 3-00-006358-7. Daniela Zenone: Das Automobil im italienischen Futurismus und Faschismus: Seine ästhetische und politische Bedeutung. WZB, Forschungsschwerpunkt Technik, Arbeit, Umwelt, Berlin 2002. Weert Canzler, Gert Schmidt (Hrsg.): Zukünfte des Automobils. Aussichten und Grenzen der autotechnischen Globalisierung. Edition Sigma, Berlin 2008, ISBN 978-3-89404-250-9. Hermann Knoflacher: Virus Auto. Die Geschichte einer Zerstörung. Ueberreuter Verlag, Wien 2009, ISBN 978-3-8000-7438-9. Larry Edsall: Automobile der Zukunft. Neue Technologien für das 21. Jahrhundert. Koehlers Verlagsgesellschaft, Hamburg 2019, ISBN 978-3-7822-1342-4. Weblinks Einzelnachweise
Q1420
1,046.834968
12743
https://de.wikipedia.org/wiki/Doppler-Effekt
Doppler-Effekt
Der Doppler-Effekt (selten Doppler-Fizeau-Effekt) ist die zeitliche Stauchung bzw. Dehnung eines Signals bei Veränderungen des Abstands zwischen Sender und Empfänger während der Dauer des Signals. Ursache ist die Veränderung der Laufzeit. Dieser rein kinematische Effekt tritt bei allen Signalen auf, die sich mit einer bestimmten Geschwindigkeit, meist Lichtgeschwindigkeit oder Schallgeschwindigkeit, ausbreiten. Breitet sich das Signal in einem Medium aus, so ist dessen Bewegungszustand zu berücksichtigen. Bei periodischen Signalen erhöht bzw. vermindert sich die beobachtete Frequenz. Das betrifft sowohl Tonhöhen als auch Modulationsfrequenzen, z. B. den Wechsel der Töne eines Martinhorns („tatü…taataa“). Bei geringen Geschwindigkeiten im Verhältnis zur Ausbreitungsgeschwindigkeit gibt dieses Verhältnis zugleich die relative Frequenzänderung an. Bei reflektiertem Signal, wie beim Radar-Doppler und Ultraschall-Doppler, verdoppelt sich mit der Laufzeit auch die Doppler-Verschiebung . Geschichte Der Doppler-Effekt wurde bekannt durch Christian Doppler, der im Jahre 1842 Astronomen davon zu überzeugen versuchte, dass dieser Effekt die Ursache dafür sei, dass bei Doppelsternen zwischen den beiden Partnersternen Farbunterschiede erkennbar sind. Nach seiner Meinung kreisen diese Sterne so schnell umeinander, dass die Farbe des gerade vom Beobachter hinweg bewegten Sterns mit einer Rotverschiebung wahrgenommen wird, während die Farbe des zulaufenden Sterns in den blauen Bereich des Spektrums verschoben ist. Dieser Effekt konnte nach dem Tode Dopplers tatsächlich durch die Vermessung von Spektrallinien nachgewiesen werden. Er ist aber zu gering, um wahrnehmbare Farbunterschiede zu erklären. Die tatsächliche Ursache für mit dem Auge erkennbare Farbunterschiede zwischen Sternen sind deren Temperaturunterschiede. Zur Erklärung des Effektes stellte Doppler ein Gedankenexperiment mit der Laufzeit von Wasserwellen an, die im Minutentakt von einem fahrenden Boot aus erzeugt werden. Daraus leitete er auch eine mathematische Beschreibung ab. Ein Verdienst von Doppler ist die Erkenntnis, dass die Endlichkeit der Lichtgeschwindigkeit auch eine Änderung der Wellenlänge des von bewegten Quellen eintreffenden Lichts bewirken muss. Im französischen Sprachraum wird dies oft Armand Fizeau (1848) zugesprochen. Die Endlichkeit der Geschwindigkeit der Lichtausbreitung war bereits 180 Jahre zuvor von Ole Rømer gedeutet worden. Rømer interessierte sich für die Eignung der Jupitermonde als Zeitgeber zur Lösung des Längengradproblems. Die Verfinsterungen des Jupitermondes Io waren mit einer Frequenz von 1/1,8d bekannt, die gut als Zeitgeber geeignet wären. Allerdings stellte Rømer fest, dass sich diese Frequenz verringert, wenn sich die Erde auf ihrer Umlaufbahn um die Sonne gerade vom Jupiter wegbewegt. Mit ist das und verlängert die Zeit von Io-Finsternis zu Io-Finsternis gerade um , also ca. 1/4 Minute. Diese Verzögerung summierte sich nach 40 Umläufen von Io um Jupiter auf 10 Minuten, die Rømer für den 9. November 1676 vorhersagte. Auch wenn Rømer tatsächlich an der Frequenzänderung der Io-Finsternisse interessiert war: Er interpretierte diese 10 Minuten viel einfacher als die Verzögerung, die das Licht für die entsprechend längere Wegstrecke benötigt hatte. Für die Schallwellen hat der Naturforscher Christoph Buys Ballot im Jahre 1845 den Doppler-Effekt nachgewiesen. Er postierte dazu mehrere Trompeter sowohl auf einem fahrenden Eisenbahnzug als auch neben der Bahnstrecke. Im Vorbeifahren sollte jeweils einer von ihnen ein G spielen und die anderen die gehörte Tonhöhe bestimmen. Es ergab sich eine Verschiebung von einem Halbton, entsprechend einer Geschwindigkeit von 70 km/h. Erst zwanzig Jahre später fand William Huggins die vorhergesagte spektroskopische Doppler-Verschiebung im Licht von Sternen. Er zeigte, dass Sirius sich stetig von uns entfernt. Ein weiteres Jahrhundert später wurde durch Radar-Messungen zwischen Erde und Venus die Genauigkeit der Astronomischen Einheit von 10−4 (aus der Horizontalparallaxe von Eros) verbessert auf zunächst 10−6 anhand von Entfernungsmessungen in den unteren Konjunktionen der Jahre 1959 und 1961 (z. B. beim JPL durch Amplitudenmodulation mit bis zu 32 Hz), dann auf 10−8 durch Doppler-Messungen auf den Trägerfrequenzen über mehrere Monate vor und nach den unteren Konjunktionen der Jahre 1964 und 1966. Die Ergebnisse wurden wie 300 Jahre zuvor als Laufzeit angegeben, da der Wert der Lichtgeschwindigkeit damals erst auf sechs Stellen bekannt war. Für den Nachweis der Periheldrehung des Merkur reichten Doppler-Messungen der Jahre 1964 bis 1966 – mit optischen Methoden waren anderthalb Jahrhunderte nötig. Details zum akustischen Doppler-Effekt Bei der Erklärung des akustischen Doppler-Effekts ist zu unterscheiden, ob sich die Schallquelle, der Beobachter, oder beide relativ zum Medium (der ruhenden Luft) bewegen. Beobachter in Ruhe, Signalquelle bewegt Als Beispiel soll angenommen werden, dass das Martinhorn des Krankenwagens Schallwellen mit einer Frequenz von 1000 Hz aussendet. Dieses bedeutet, dass genau 1/1000 Sekunden nach dem ersten Wellenberg ein zweiter Wellenberg nachfolgt. Die Wellen breiten sich mit der Schallgeschwindigkeit bei 20 °C aus. Solange der Krankenwagen steht, ist die Wellenlänge des Schalls, also der Abstand der Wellenberge: Für einen Beobachter an der Straße kommen diese Wellenberge zwar je nach Entfernung etwas zeitverzögert an. Die Zeit zwischen zwei Wellenbergen ändert sich jedoch nicht. Die Grundfrequenz des wahrgenommenen Tons ist für jeden Abstand von Beobachter und Krankenwagen gleich. Die Situation ändert sich, wenn der Krankenwagen mit der Geschwindigkeit auf den Beobachter zufährt. Da sich der Wagen in der Zeit zwischen den beiden Wellenbergen weiterbewegt, verkürzt sich der Abstand zwischen ihnen etwas. Er verkürzt sich um den Weg, den der Wagen in der Zeit von 1/1000 Sekunde zurücklegt: Die Indizes und verweisen auf den Sender beziehungsweise Beobachter der Welle. Da sich beide Wellenberge mit derselben Schallgeschwindigkeit zum Beobachter bewegen, bleibt der verkürzte Abstand zwischen ihnen erhalten, und der zweite Wellenberg kommt nicht erst 1/1000 Sekunde nach dem ersten an, sondern schon ein wenig früher. Bezogen auf obiges Beispiel verkürzt sich die Wellenlänge bei einer Geschwindigkeit von : Dadurch erscheint dem Beobachter die Frequenz (also die Tonhöhe) des Martinhorns höher (): Quantitativ erhält man die Frequenzänderung einfach durch Einsetzen der Beziehung in obige Formel für . Für die vom Beobachter wahrgenommene Frequenz ergibt sich somit: Dabei bedeuten die Frequenz der Schallquelle, die Ausbreitungsgeschwindigkeit des Schalls und die Geschwindigkeit der Schallquelle (also des Krankenwagens). Wenn der Krankenwagen am Beobachter vorbeigefahren ist, verhält es sich sinngemäß umgekehrt: der Abstand zwischen den Wellenbergen (Wellenlänge) vergrößert sich, und der Beobachter hört einen tieferen Ton. Rechnerisch gilt obige Formel genauso, man muss nur für eine negative Geschwindigkeit einsetzen. Bezogen auf das Beispiel: Die beschriebenen Bewegungen der Signalquelle direkt auf den Beobachter zu oder direkt von ihm weg sind Spezialfälle. Bewegt sich die Signalquelle beliebig im Raum mit der Geschwindigkeit so kann die Doppler-Verschiebung für einen ruhenden Empfänger zu angegeben werden. ist dabei der zeitabhängige Einheitsvektor, der die Richtung von der Signalquelle zum Beobachter beschreibt. Beobachter bewegt, Signalquelle in Ruhe Auch bei ruhender Schallquelle und bewegtem Beobachter tritt ein Doppler-Effekt auf, allerdings ist hier die Ursache eine andere: Wenn der Wagen ruht, ändert sich auch nichts am Abstand zwischen den Wellenbergen, die Wellenlänge bleibt also gleich. Allerdings kommen die Wellenberge scheinbar schneller hintereinander bei dem Beobachter an, wenn sich dieser auf den Krankenwagen zubewegt: bzw. Auch hier ergibt sich wieder der Fall eines sich entfernenden Beobachters durch Einsetzen einer negativen Geschwindigkeit. Für eine beliebige Bewegung des Beobachters mit dem Geschwindigkeitsvektor ergibt sich bei ruhendem Sender der Doppler-Effekt zu wobei wiederum der Einheitsvektor zur Beschreibung der Richtung von der Signalquelle zum Beobachter ist, der im allgemeinen Fall, genau wie der Geschwindigkeitsvektor , zeitabhängig sein kann. Wie man sieht, sind die Gleichungen und nicht identisch (nur im Grenzfall nähern sie sich einander an). Offensichtlich wird das im Extremfall: bewegt sich der Beobachter mit Schallgeschwindigkeit auf die Signalquelle zu, erreichen ihn die Wellenberge doppelt so schnell, und er hört einen Ton doppelter Frequenz. Bewegt sich hingegen die Signalquelle mit Schallgeschwindigkeit, wird der Abstand zwischen den Wellenbergen praktisch null, sie überlagern sich und es kommt zu einer extremen Verdichtung der Luft (siehe Schallmauerdurchbruch). Da so alle Wellenberge gleichzeitig beim Beobachter eintreffen, wäre das nach obiger Formel theoretisch eine unendliche Frequenz – praktisch hört man keinen Ton einer bestimmten Frequenz, sondern den Überschallknall. Beobachter und Signalquelle bewegt Durch Kombination der Gleichungen und kann man eine Gleichung herleiten, welche die für den Beobachter wahrgenommene Frequenz beschreibt, wenn der Sender und der Empfänger in Bewegung sind. Sender und Empfänger bewegen sich aufeinander zu: Sender und Empfänger bewegen sich voneinander weg: Dabei ist die Geschwindigkeit des Beobachters und die Geschwindigkeit des Senders der Schallwellen relativ zum Medium. Frequenzverschiebung bei Streuung an einem bewegten Objekt Ebenfalls aus den oberen Gleichungen lässt sich die wahrgenommene Frequenz ableiten, wenn die Welle eines ruhenden Senders an einem mit der Geschwindigkeit bewegten Objekt gestreut wird und von einem ebenfalls ruhenden Beobachter wahrgenommen wird: und sind dabei jeweils die Einheitsvektoren vom stationären Sender zum bewegten Objekt und vom bewegten Objekt zum stationären Beobachter. Anwendung findet diese Gleichung häufig in der akustischen oder optischen Messtechnik zur Messung von Bewegungen, z. B. Laser-Doppler-Anemometrie. Speziell in der Optik kann für die Winkelabhängigkeit der gestreuten Frequenz zu aus Beleuchtungsrichtung und Beobachtungsrichtung in sehr guter Näherung bestimmt werden. Allgemeines Doppler-Gesetz für Schallquellen Allgemein lässt sich der Frequenzunterschied schreiben als: Dabei ist die Geschwindigkeit des Beobachters und die der Schallquelle, jeweils relativ zum Medium (z. B. der Luft). Das obere Operationszeichen gilt jeweils für Annäherung (Bewegung in Richtung des Senders bzw. Empfängers). D. h. beide Geschwindigkeiten werden positiv in Richtung des Beobachters bzw. Senders gemessen. Mit oder ergeben sich die oben genannten Spezialfälle. Für verschwindet der Effekt (es gibt also keine Tonhöhenänderung). Das tritt ein, wenn sich Sender und Empfänger in dieselbe Richtung mit derselben Geschwindigkeit relativ zum Medium bewegen; meist bewegt sich in solchen Fällen das Medium selbst, während Sender und Empfänger ruhen (Wind). Deswegen kommt es unabhängig von der Windstärke zu keinem Doppler-Effekt. Die Formeln wurden unter der Annahme abgeleitet, dass sich Quelle und Beobachter direkt aufeinander zubewegen. In realen Fällen fährt z. B. der Krankenwagen in einem bestimmten Mindestabstand am Beobachter vorbei. Daher ändert sich der Abstand zwischen Quelle und Beobachter nicht gleichmäßig, und deswegen ist – besonders unmittelbar vor und nach dem Vorbeifahren – ein kontinuierlicher Übergang der Tonhöhe von höher zu tiefer zu hören. Doppler-Effekt ohne Medium Elektromagnetische Wellen breiten sich auch im Vakuum, also ohne Medium aus. Wenn sich der Sender der Wellen relativ zum Empfänger bewegt, tritt auch in diesem Fall eine Verschiebung der Frequenz auf. Dieser Relativistische Doppler-Effekt ist darauf zurückzuführen, dass die Wellen sich mit endlicher Geschwindigkeit, nämlich der Lichtgeschwindigkeit ausbreiten. Man kann ihn als geometrischen Effekt der Raumzeit auffassen. Longitudinaler Doppler-Effekt Im Vakuum (Optischer Doppler-Effekt) hängt die beobachtete Frequenzänderung nur von der relativen Geschwindigkeit von Quelle und Beobachter ab; ob sich dabei die Quelle, der Beobachter oder beide bewegen, hat keinen Einfluss auf die Höhe der Frequenzänderung. Aufgrund des Relativitätsprinzips darf sich jeder Beobachter als ruhend betrachten. Allerdings muss er dann bei der Berechnung des Doppler-Effekts zusätzlich zu obigen Betrachtungen auch noch die Zeitdilatation der relativ zum Beobachter bewegten Quelle berücksichtigen. Somit erhält man für den relativistischen Doppler-Effekt: bei Verringerung des Abstandes zwischen Quelle und Beobachter. Transversaler Doppler-Effekt Bewegt sich ein Objekt zu einem gewissen Zeitpunkt quer (was "quer" bedeutet, siehe die nächsten beiden Abschnitte) zum Beobachter, so kann man die Änderung des Abstandes zu diesem Zeitpunkt vernachlässigen; dementsprechend würde man hier auch keinen Doppler-Effekt erwarten. Jedoch besagt die Relativitätstheorie, dass jedes Objekt aufgrund seiner Bewegung einer Zeitdilatation unterliegt, aufgrund der die Frequenz ebenfalls verringert wird. Diesen Effekt bezeichnet man als transversalen Doppler-Effekt. Die Formel hierfür lautet wobei hier die Vakuum-Lichtgeschwindigkeit und die Geschwindigkeit der Signalquelle bezeichnet. Der transversale Doppler-Effekt kann bei nicht-relativistischen Geschwindigkeiten (also Geschwindigkeiten weit unter der Lichtgeschwindigkeit) allerdings vernachlässigt werden. Doppler-Effekt bei beliebigem Winkel Der Doppler-Effekt lässt sich ganz allgemein abhängig vom Beobachtungswinkel angeben. Die Frequenzänderung für einen beliebigen Beobachtungswinkel ergibt sich zu Wenn man für den Winkel nun 0° (Quelle bewegt sich direkt auf Empfänger zu), 90° (Quelle bewegt sich seitwärts) oder 180° (Quelle bewegt sich direkt vom Empfänger weg) einsetzt, dann erhält man die oben stehenden Gleichungen für longitudinalen und transversalen Doppler-Effekt. Man erkennt außerdem, dass der Winkel, unter dem der Doppler-Effekt verschwindet, von der Relativgeschwindigkeit abhängt, anders als beim Doppler-Effekt für Schall, wo er immer 90° beträgt. Der Beobachtungswinkel αB Aufgrund der endlichen Laufzeit zwischen Quelle und Empfänger unterscheidet sich der Beobachtungswinkel vom tatsächlichen Winkel zwischen der Bewegungsrichtung der Quelle und der Achse Quelle-Empfänger. Der Beobachtungswinkel ist der Winkel zwischen der Bewegungsrichtung der Quelle und dem "lokalen" Wellenvektor am Ort des Beobachters zu einem bestimmten Zeitpunkt. Die lokale Wellenfront steht senkrecht auf diesem Wellenvektor. Der lokale Wellenvektor, bzw. die lokale Wellenfront, sind die optisch relevanten Größen, z. B. bei der astronomischen Beobachtung eines vorbeiziehenden Sterns. Besonders anschaulich wird der Unterschied zwischen dem Beobachtungswinkel und dem tatsächlichen Winkel , wenn man einen Laserpointer betrachtet, der sich mit der Geschwindigkeit entlang der -Achse bewegt und Licht unter einem Winkel im Bezug zur Bewegungsrichtung, also der -Achse abstrahlt. Dazu vergleichen wir die - und -Komponenten der Lichtgeschwindigkeit im Ruhesystem des Beobachters mit den Komponenten und der Lichtgeschwindigkeit relativ zum bewegten Laser. Die -Komponente der Lichtgeschwindigkeit relativ zum Laserpointer ändert sich dabei nicht, d. h. es gilt . Bei der -Komponente dagegen müssen wir abziehen, d. h. es gilt . Damit erhalten wir folgende Beziehung zwischen dem Winkel , den der Laserstrahl mit der -Achse einschließt und dem Winkel , den der Wellenvektor mit der -Achse bildet: . Wobei wir noch folgende Beziehungen verwendet haben: und . Insbesondere erhält man einen Lichtstrahl, der senkrecht zur Bewegungsrichtung abstrahlt, also , wenn . Das Besondere ist jetzt: Dieser senkrechte Lichtstrahl hat eine zusätzliche seitliche Driftbewegung der Geschwindigkeit . Seine Wellenfronten sind zwar noch senkrecht zum Wellenvektor ausgerichtet, aber der Wellenvektor zeigt nicht mehr senkrecht nach oben, also in Richtung des Lichtstrahls, sondern schließt mit der -Achse den Aberrationswinkel ein. Nebenbei bemerkt: Der transversale Dopplereffekt und insbesondere dieser seitlich driftende Lichtstrahl ist der Schlüssel zu einer anschaulichen und in sich konsistenten Beschreibung der speziellen Relativitätstheorie. Entsprechend obiger Formel, für den Fall , ist die Frequenz dieses Lichtstrahls . Setzt man also einen Laserpointer in Bewegung, dann muss dem elektromagnetischen Feld im Laser-Resonator eine Energiemenge proportional zu zugeführt werden. Weiß man nun, dass proportional zur Ruheenergie des elektromagnetischen Felds des Laser-Resonators ist, so folgt beim Vergleich mit der kinetischen Energie direkt die Formel , wobei als Masse der im Resonator gespeicherten Energie angesehen werden kann. Doppler-Effekt und kosmologische Rotverschiebung Auch wenn die zu beobachtenden Auswirkungen von Doppler-Effekt und kosmologischer Rotverschiebung identisch sind (Verminderung der beobachteten Frequenz der elektromagnetischen Strahlung eines Sterns oder einer Galaxie), so dürfen beide trotzdem nicht verwechselt werden, da sie gänzlich andere Ursachen haben. Der relativistische Doppler-Effekt ist nur dann Hauptursache für die Frequenzänderung, wenn sich Sender und Empfänger wie oben beschrieben durch die Raumzeit bewegen und ihr Abstand so gering ist, dass die Expansion des zwischen ihnen liegenden Raumes im Verhältnis gering ist. Bei großen Entfernungen überwiegt bei weitem jener Anteil, der durch die Expansion des Raumes selbst hervorgerufen wird, so dass der Anteil des hier diskutierten Doppler-Effekts gänzlich vernachlässigt werden kann, sobald die Pekuliargeschwindigkeiten gegenüber dem Hubble-Fluss gering werden. Die kosmologische Rotverschiebung, meist mit dem Symbol z bezeichnet, ergibt sich auch nicht durch die aus dem Hubble-Fluss resultierende Rezessionsgechwindigkeit, sondern durch die Dehnung der Lichtwellen infolge der Expansion des Raumes während der Lichtlaufzeit gemäß dem Skalenfaktor a zum Weltalter, als die Strahlung erzeugt wurde. Anwendungen Radialgeschwindigkeiten sind durch den Doppler-Effekt messbar, wenn der Empfänger die Frequenz des Senders genügend genau kennt, insbesondere bei Echos von akustischen und elektromagnetischen Signalen. Physik und Astrophysik Scharfe Spektrallinien erlauben eine entsprechend hohe Auflösung der Doppler-Verschiebung. Berühmt ist der Nachweis der Doppler-Verschiebung im Gravitationsfeld (Pound-Rebka-Experiment). Beispiele in der Astrophysik sind die Rotationskurven von Galaxien, spektroskopische Doppelsterne, die Helioseismologie und der Nachweis von Exoplaneten. In der Quantenoptik wird die Dopplerverschiebung bei der Laserkühlung von Atomgasen genutzt, um Temperaturen nahe dem absoluten Nullpunkt zu erreichen. Bei der Mößbauer-Spektroskopie wird der Doppler-Effekt einer bewegten Gammastrahlungsquelle verwendet, um die Energie der Photonen dieser Quelle minimal zu verändern. Hierdurch können diese Photonen in Wechselwirkung mit den Kernhyperfeinniveaus eines entsprechenden Absorbers treten. Radartechnik Beim Doppler-Radar berechnet man die Annäherungsgeschwindigkeit eines Objekts aus der gemessenen Frequenzänderung zwischen gesendetem und reflektiertem Signal. Die Besonderheit bei einem aktiven Radargerät ist jedoch, dass der Doppler-Effekt zweimal auftreten kann, auf dem Hin- und auf dem Rückweg. Ein Radarwarngerät, das die Signale des Hinwegs empfängt, misst eine Frequenz, die in Abhängigkeit von der Relativgeschwindigkeit variiert. Diese registrierte Frequenz wird von ihm reflektiert. Das Radargerät registriert die bereits Doppler-verschobenen Frequenzen wiederum in Abhängigkeit von der dann bestehenden Relativgeschwindigkeit. Im Fall eines unbeschleunigten Radargeräts tritt eine exakt zweifache Doppler-Verschiebung auf. In der Meteorologie wird das Doppler-Radar zur Bestimmung von Rotationsbewegungen in Superzellen (Tornados) benutzt. Das Militär und die Flugüberwachung nutzen den Doppler-Effekt unter anderem beim Passiv-Radar, bei der Geschwindigkeitsmessung und Festzielunterdrückung. Auch zur Geschwindigkeitsermittlung bei sog. Radarfallen im Straßenverkehr wird ein Doppler-Radar benutzt. Ein Synthetic Aperture Radar (anfangs genannt) basiert maßgeblich auf der Zuordnung der Signale durch den Verlauf der Änderung ihrer Doppler-Verschiebung. Reflektierende Objekte am Boden haben abhängig von ihrer Entfernung zum Flugpfad der Radarplattform einen charakteristischen Verlauf der Änderung ihrer Dopplerfrequenz. Je weiter der Punkt von dieser Flugbahn entfernt ist, desto geringer ist die Bandbreite der Doppler-Frequenz. Anhand von dieser Bandbreite kann sogar auf die Entfernung zurück geschlossen werden. Diese Art Entfernungsbestimmung und die gemessene Laufzeit für die Schrägentfernung ergeben zusammen ein dreidimensionales Abbild der Erdoberfläche. Medizinische Diagnostik In der Medizin wird der akustische Doppler-Effekt bei Ultraschalluntersuchungen genutzt, um die Blutstromgeschwindigkeit darzustellen und zu messen. Dies hat sich als außerordentlich hilfreich erwiesen. Es gibt: Farb-Doppler: Rot: Fluss auf die Schallsonde zu Blau: Fluss von der Schallsonde weg pW-Doppler: gepulster Doppler (beispielsweise für Gefäßuntersuchungen) cW-Doppler: continuous wave Doppler (beispielsweise für Herzklappenmessungen) Laser-Doppler Für die berührungslose Messung der Geschwindigkeitsverteilung von Fluiden (Flüssigkeiten und Gase) wird die Laser-Doppler-Anemometrie (LDA) angewandt. Sie beruht auf dem optischen Doppler-Effekt an streuenden Partikeln in der Strömung. In gleicher Weise dient ein Vibrometer der Messung der Schnelle vibrierender Oberflächen. Sonstige Anwendungen Für Wasserwellen (Schwerewellen), deren Trägermedium einer konstanten Strömungsgeschwindigkeit unterliegt, siehe unter Wellentransformation. Das mittlerweile abgeschaltete Satellitennavigations-System Transit nutzte den Doppler-Effekt zur Positionsbestimmung. Aktiv eingesetzt wird er bei Argos, einem satellitengestützten System zur Positionsbestimmung. Bei modernen GNSS-Satelliten ist der Doppler-Effekt zunächst störend. Er zwingt die Empfänger, einen größeren Frequenzbereich abzusuchen. Andererseits lassen sich aus der Frequenzverschiebung Zusatzinformationen gewinnen und so die Grobpositionierung beschleunigen. Das Verfahren heißt Doppler-Aiding. Siehe auch: Doppler-Satellit. In der Musik wird der Doppler-Effekt zur Erzeugung von Klangeffekten verwendet, beispielsweise bei den rotierenden Lautsprechern eines Leslie-Kabinetts. Doppler-Effekt in biologischen Systemen Während der Segmentierung von sequentiell segmentierenden Wirbeltier-Embryonen laufen Wellen von Genexpression durch das paraxiale Mesoderm, das Gewebe, aus dem die Vorläufer der Wirbelkörper (Somiten) geformt werden. Mit jeder Welle, die das anteriore Ende des präsomitischen Mesoderms erreicht, wird ein neuer Somit gebildet. In Zebrabärblingen wurde gezeigt, dass die Verkürzung des paraxialen Mesoderms während der Segmentierung einen Doppler-Effekt verursacht, da sich das anteriore Ende des Gewebes in die Wellen hineinbewegt. Dieser Doppler-Effekt trägt zur Geschwindigkeit der Segmentierung bei. Beispiel Ein ruhender Beobachter hört eine Schallquelle, die sich genau auf ihn zubewegt, mit der Frequenz , siehe Gleichung, wenn sie sich von ihm entfernt, mit der Frequenz , siehe Gleichung. Bei Schallquellen spielt der relativistische transversale Doppler-Effekt keine Rolle. Je weiter der Beobachter von der linearen Flugbahn entfernt ist, desto langsamer ändert sich die radiale Geschwindigkeitskomponente bei Annäherung. Die Schnelligkeit der Frequenzänderung hängt ab von der kürzesten Entfernung zwischen Beobachter und Signalquelle. Das Diagramm rechts zeigt die Frequenzabhängigkeit relativ zu einem im Ursprung ruhenden Beobachter. Die rote Linie entspricht der Frequenz, die er hört, wenn ihn die Signalquelle in großem Abstand passiert, blau der bei geringem Abstand. Maximal- und Minimal-Frequenzen liegen nicht symmetrisch zur Eigenfrequenz, da die Geschwindigkeit nicht sehr viel kleiner ist als die Schallgeschwindigkeit . Es gelten die Beziehungen (1) und (2). Sind die Koordinaten der bewegten Signalquelle bekannt, kann man aus dem Frequenzverlauf den eigenen Standort ableiten (siehe z. B. Transit (Satellitensystem)). Die Tonbeispiele geben die Tonhöhen, die ein ruhender Beobachter hört, wenn eine Signalquelle an ihm vorbeifliegt. Sie vernachlässigen den Effekt, dass die sich entfernende Quelle länger zu hören ist als die sich nähernde: Frequenz , relative Geschwindigkeit (dann ist und ): (1) Langsam bewegte Signalquelle, die Beobachter in geringem Abstand passiert. (2) : wie (1), aber Passieren der Signalquelle in größerem Abstand. (3) : wie (2), Abstand noch größer. Erhöht sich die relative Geschwindigkeit, verschieben sich die Frequenzen: Frequenz wie oben, aber (dann ist ). (4) : Abstand wie (2). Trivia Bei der Planung der Weltraummission Cassini-Huygens war nicht bedacht worden, dass der Funkverkehr zwischen den beiden Teilsystemen Cassini und Huygens durch den Doppler-Effekt einer Frequenzverschiebung unterliegt. Simulierende Tests wurden erst während der Reise durchgeführt, zu spät, um die Ursache, eine zu steif parametrisierte Phasenregelschleife, zu korrigieren. Diverse Maßnahmen im Umfeld des Fehlers konnten den erwarteten Datenverlust von 90 % auf 50 % senken. Zusätzlich wurde daher die Flugbahn der Mission verändert, um Datenverluste durch diesen Fehler ganz zu vermeiden. Literatur David Nolte: The fall and rise of the Doppler effect. Physics Today, März 2020, S. 30–35. Weblinks Plattform zum Doppler-Effekt und Leben/Wirken Christian Dopplers Facharbeit zum Doppler-Effekt (PDF; 614 KiB; zuletzt abgerufen am 17. Dezember 2012) Beispiele für verschiedene Geschwindigkeiten eines Objekts (zuletzt abgerufen am 17. Dezember 2012) Einzelnachweise Wellenlehre Akustik Spezielle Relativitätstheorie Christian Doppler als Namensgeber Physikalischer Effekt Wikipedia:Artikel mit Video
Q76436
215.759661
188866
https://de.wikipedia.org/wiki/Flash-Speicher
Flash-Speicher
Flash-Speicher sind digitale Speicherbausteine für eine nichtflüchtige Speicherung ohne Erhaltungs-Energieverbrauch. Die genaue Bezeichnung dieses Speichertyps lautet Flash-EEPROM. Im Gegensatz zu gewöhnlichem EEPROM-Speicher lassen sich hier Bytes (die üblicherweise kleinsten adressierbaren Speichereinheiten) nicht einzeln löschen oder überschreiben. Flash-Speicher sind langsamer als Festwertspeicher (ROM). Geschichte Bezeichnung und Name Die Bezeichnung Flash entstand gemäß einer Anekdote aus dem Entwicklungslabor von Toshiba 1984 so: Shoji Ariizumi, ein Mitarbeiter des Projektleiters Fujio Masuoka, fühlte sich durch den blockweise arbeitenden Löschvorgang des Speichers an einen Blitz () einer Fotokamera erinnert, weshalb er Flash als Namen vorschlug. Entwicklungsgeschichte Der EPROM wurde von Dov Frohman bei Intel entwickelt. Intel brachte den 2-Kibit-EPROM „1702“ im Jahr 1971 auf den Markt. Der erste kommerzielle Mikroprozessor Intel 4004 von Intel (1971) hätte ohne den EPROM als Programmspeicher wohl weniger Erfolg gehabt. Allerdings musste der 1702-EPROM zum Löschen ausgebaut und mit UV-Licht bestrahlt werden. Im Jahr 1978 entwickelte Perlegos den 2816-Chip: den ersten EEPROM-Speicher, der ohne Quarzfenster beschrieben und gelöscht werden konnte. NAND-Flash-Speicher wurde ab 1980 von Toshiba entwickelt (veröffentlicht 1984), NOR-Flash ab 1984 von Intel (veröffentlicht 1988). 1985 wurde die erste (kurz SSD) in einen IBM Personal Computer eingebaut. Diese Technik war damals so teuer, dass nur das Militär sich für sie interessierte. Die Geschichte der Flash-Speicher ist eng verbunden mit der Geschichte der Digitalkamera. Das erste CompactFlash-Medium mit vier Megabyte Kapazität wurde 1994 von SanDisk vorgestellt. Als auch M-Systems 1996 eine Solid State Disk auf den Markt brachte, wurden die Flash-Speicher für private Anwender interessant. 1998 stellte Sony den ersten Memory Stick vor; diese wurden auch in älteren Versionen der PlayStation verwendet. Flash-Speicher finden überall dort Anwendung, wo Informationen nichtflüchtig (persistent) auf kleinstem Raum – ohne permanente Versorgungsspannung – gespeichert werden müssen. Dazu zählen auch weiterhin Speicherkarten für Digitalkameras und andere mobile Geräte wie Mobiltelefone, Smartphones und Handhelds. Andere Bauformen beziehungsweise Geräte, in denen diese Speichertechnik genutzt wird, sind USB-Sticks und MP3-Player sowie die bereits historische DiskOnChip. Letztere dienten beispielsweise für die dauerhafte Speicherung der Firmware in vielen Geräten mit Mikrocontrollern (Eingebettete Systeme, BIOS); zum selben Zweck zunehmend auch auf dem Mikrocontroller selbst integriert: . Inzwischen (2020) sind Flash-Speicher in Form von Solid-State-Drives (SSD) so preisgünstig, dass viele Notebooks und PCs von den Herstellern nur noch mit einer SSD ausgerüstet werden. Dies hat bei Notebooks zwei Vorteile: SSDs brauchen weniger Strom als herkömmliche magnetische Festplatten (englisch ), und sie sind unempfindlich gegen Erschütterungen. Bei HDDs dagegen können Erschütterungen einen Head-Crash verursachen. Funktionsprinzip Bei einem Flash-EEPROM-Speicher werden Informationen (Bits) in einer Speichereinheit (Speicherzelle) in Form von elektrischen Ladungen auf einem Floating-Gate oder in einem Charge-Trapping-Speicherelement eines Metall-Isolator-Halbleiter-Feldeffekttransistors () gespeichert. In beiden Fällen beeinflussen die Ladungen auf dem Gate (ortsfeste Raumladungen), wie bei normalen MISFETs, die Ladungsträger im darunter liegenden Gebiet zwischen Source- und Drain-Kontakt (dem sogenannten Kanal), wodurch die elektrische Leitfähigkeit des Feldeffekttransistors beeinflusst und dadurch eine dauerhafte Informationsspeicherung möglich wird. Anders als das Gate bei normalen MISFETs ist das Floating-Gate von allen anderen Teilen (Kanalgebiet und von Steuer-Gate) durch ein Dielektrikum (derzeit meist Siliziumdioxid) elektrisch isoliert; das Potential auf dem Floating-Gate ist daher im Grunde undefiniert (dies wird auch als schwimmend, englisch , bezeichnet). Bei einem Charge-Trapping-Speicher übernimmt das eine elektrisch nichtleitende Schicht aus Siliciumnitrid; die Elektronen und Defektelektronen werden an Haftstellen (englisch ) ortsfest gehalten. Wenngleich im Strukturaufbau beide Varianten deutliche Unterschiede aufweisen, ist das Funktionsprinzip mit ortsfest gehaltenen elektrischen Ladungen, welche einen MISFET in seinen Eigenschaften beeinflussen, in beiden Fällen dasselbe. Damit Information gezielt gespeichert werden kann, müssen jedoch Ladungen auf das Floating-Gate bzw. auf die Charge-Trapping-Struktur gebracht und wieder entfernt werden können. Diese Änderung des Ladungszustands ist nur durch den quantenphysikalischen Tunneleffekt möglich, der es Elektronen erlaubt, den eigentlichen Nichtleiter zu passieren. Da dies jedoch nur durch große Unterschiede im elektrischen Potential über den Isolator (der eine Potentialbarriere für Ladungsträger darstellt) erfolgen kann, bewirkt die elektrische Isolation des Floating-Gates, dass eingebrachte Ladungen vom Floating Gate nicht abfließen können und der Speichertransistor seine Information lange Zeit behält. In der Anfangsphase dieser Technik wurden nur zwei Ladungszustände unterschieden, daher konnte nur ein Bit je Zelle gespeichert werden. Inzwischen können Flash-EEPROM-Speicher hingegen mehrere Bits pro Speichertransistor speichern (z. B. MLC-Speicherzelle, TLC-Speicherzelle); man nutzt hierzu bei Floating-Gates die unterschiedliche elektrische Leitfähigkeit bei verschiedenen Ladungszuständen des Transistors und bei Charge-Trapping die Möglichkeit, je ein Bit an Information in der Drain- und in der Source-Region getrennt zu speichern. Das Auslesen der beiden Bits pro MISFET erfolgt durch Richtungsänderung des Auslesestromes im Kanal. Speichern und Lesen Die Speicherung eines Bits – im Folgenden ist nur der Speichervorgang bei einem Floating-Gate dargestellt – erfolgt über das Floating-Gate, das eigentliche Speicherelement des Flash-Feldeffekttransistors. Es liegt zwischen dem Steuer-Gate und der Source-Drain-Strecke und ist von dieser wie auch vom Steuer-Gate jeweils mittels einer Oxid-Schicht isoliert. Im ungeladenen Zustand des Floating-Gates kann, wenn das Steuer-Gate den Transistor auf „offen“ steuert, in der Source-Drain-Strecke (Kanal) ein Strom fließen. Werden über das Steuer-Gate durch Anlegen einer hohen positiven Spannung (10–18 V) Elektronen auf das Floating-Gate gebracht, so kann in der Source-Drain-Strecke auch bei eigentlich „offen“ geschaltetem Transistor kein Strom mehr fließen, da das negative Potential der Elektronen auf dem Floating-Gate der Spannung am Steuer-Gate entgegenwirkt und somit den Flash-Transistor geschlossen hält. Der ungeladene Zustand wird wieder erreicht, indem die Elektronen durch Anlegen einer hohen negativen Spannung über die Steuergate-Kanal-Strecke wieder aus dem Floating-Gate ausgetrieben werden. Dabei ist es sogar möglich, dass der Flashtransistor in den selbstleitenden Zustand gerät, d. h., er leitet sogar dann Strom, wenn am Steuer-Gate keine Spannung anliegt (): statt mit Elektronen ist das Floating-Gate nun quasi mit positiven Ladungsträgern (Defektelektronen, „Löchern“) besetzt. Das ist besonders in NOR-Architekturen (s. u.) problematisch. Anmerkung: Ob der geladene oder ungeladene Floating-Gate-Zustand als jeweils 0- oder 1-Zustand der Speicherzelle angesehen wird, ist implementierungsabhängig. Per Konvention wird aber meist derjenige Zustand des Floating-Gates, der durch blockweises Löschen hergestellt wird, als 0 („gelöscht“) bezeichnet. Entsprechend bezeichnet man den bitweise einstellbaren Zustand als 1 („programmiert“). Tunneleffekt Der Mechanismus, der die Elektronen durch die isolierende Oxidschicht passieren lässt, wird Fowler-Nordheim-Tunneleffekt genannt (nach ihren ersten Erforschern), d. h., bei einem Flash-Speicher handelt es sich um die Anwendung eines nur quantenmechanisch deutbaren Effekts. Um die Wahrscheinlichkeit, dass Elektronen zum Floating-Gate tunneln, zu erhöhen, wird oft das Verfahren CHE (englisch ) verwendet: Die Elektronen werden durch Anlegen einer Spannung über dem Kanal, also zwischen Drain und Source, beschleunigt und dadurch auf ein höheres Energieniveau (daher engl. ) gehoben, wodurch sie schon bei geringeren Spannungen (typischerweise 10 V) zwischen Gate und Kanal zum Floating-Gate tunneln. (In obiger Abbildung zum Programmieren ist dieses Verfahren – allerdings für eine ältere Technik – angedeutet.) Ansteuerung Ein Flash-Speicher besteht aus einer bestimmten, von der Speichergröße abhängigen Anzahl einzelner Speicherelemente. Die Bytes oder Worte (typisch durchaus bis 64 Bit) können einzeln adressiert werden. Dabei können sie in einigen Architekturen auch einzeln geschrieben werden, wogegen bei anderen nur größere Datenmengen auf einmal programmiert werden können. In der Regel ist die entgegengesetzte Operation, das Löschen, aber nur in größeren Einheiten, sogenannten Sektoren (meistens ein Viertel, Achtel, Sechzehntel usw. der Gesamtspeicherkapazität) möglich. Dabei ist die logische Polarität nicht immer gleich: Es existieren sowohl Implementierungen, die das Programmieren als Übergang von logisch 0 nach 1 realisieren, als auch umgekehrt. Gemeinsames Merkmal ist aber immer, dass die beiden Operationen: jeweils nur den Übergang in eine Richtung (0 nach 1 oder 1 nach 0) darstellen und (oft) nur eine von beiden bit-selektiv arbeiten kann: das Programmieren. Das bedeutet, dass zum Wiederbeschreiben immer erst eine Löschoperation (auf einem Byte bei manchen EEPROM-Architekturen, auf einem Sektor bei Flash) nötig ist und dann das gewünschte Bit-Pattern, also der gewünschte Speicherinhalt, durch Programmieroperationen hergestellt wird. Oft müssen zum Schreiben auf den Flash-Speicher spezielle Kommandos (in Form einer Sequenz von anzulegenden genau spezifizierten Daten-/Adresspaaren) an den Flash-Speicher gegeben werden. Das ist eine Sicherheitsmaßnahme gegen unbeabsichtigtes Beschreiben oder Löschen des Speichers. All diese Detailoperationen geschehen in der Regel transparent für den Benutzer und das jeweilige Anwendungsprogramm. Meistens gibt es für Flash-Speicher optimierte Dateisysteme, die diese Verfahrensweisen implementieren. Manche Flash-Speicher wie beispielsweise USB-Sticks tragen auch zur Bedienung der Schnittstelle zum Rechner einen eigenen Mikrocontroller, auf welchem Wear-Leveling-Algorithmen implementiert sind, die dafür sorgen, dass auch ohne ein solches optimiertes Dateisystem der Datenträger möglichst gleichmäßig abgenutzt wird. Architekturen Am Markt sind mit Stand 2005 zwei Flash-Architekturen gängig, die sich in der Art der internen Verschaltung der Speicherzellen und damit in der Speicherdichte und Zugriffsgeschwindigkeit unterscheiden. Grundsätzlich sind die Speicherzellen als Matrix angeordnet, wobei über eine Koordinate die Adressleitungen zur Auswahl einer Spalte oder Zeile von Speicherzellen dienen und in der anderen Koordinate Datenleitungen zu den Speicherzellen führen. Die Realisierung der Datenleitungen stellt den wesentlichen Unterschied zwischen den Architekturen NAND-Flash und NOR-Flash dar. NAND-Flash Die Speicherzellen sind in größeren Gruppen (z. B. 1024) hintereinander geschaltet (Reihenschaltung). Das entspricht dem n-Kanal-Zweig eines NAND-Gatters in der CMOS-Technik. Eine Gruppe teilt sich jeweils eine Datenleitung. Lesen und Schreiben ist dadurch nicht wahlfrei möglich, sondern muss immer in ganzen Gruppen sequentiell erfolgen. Durch die geringere Zahl an Datenleitungen benötigt NAND-Flash weniger Platz. Da Daten auch auf Festplatten blockweise gelesen werden, eignet sich NAND-Flash trotz dieser Einschränkung als Ersatz für Plattenspeicher. Die NAND-Architektur zielt auf Märkte, in denen es auf viel Speicher auf wenig Raum ankommt, weniger jedoch auf geringe Zugriffszeit. NOR-Flash Die Speicherzellen sind über Datenleitungen parallel geschaltet – diese können je nach genauer Architektur auf der Source- oder der Drain-Seite liegen. Das entspricht einer Verschaltung wie im n-Kanal-Zweig eines NOR-Gatters in CMOS. Der Zugriff kann hier wahlfrei und direkt erfolgen. Deshalb wird der Programmspeicher von Mikrocontrollern aus NOR-Flash aufgebaut. Die NOR-Architektur setzt auf den Ersatz von UV-löschbaren EPROMs (die zwischenzeitlich von Flash-Bausteinen nahezu ersetzt sind und kaum noch weiterentwickelt werden). Außerdem lassen sich hier erheblich kürzere Zugriffszeiten realisieren: Die Parallelschaltung hat den geringeren Widerstand zwischen Stromquelle und Auswerteschaltung. Nachteile beider Architekturen Flash-Speicher haben eine begrenzte Lebensdauer, die in einer maximalen Anzahl an Löschzyklen angegeben wird (10.000 bis 100.000 Zyklen für NOR-Flash und bis zu zwei Millionen für NAND-Flash). Dies entspricht gleichzeitig der maximalen Anzahl Schreibzyklen, da der Speicher jeweils blockweise gelöscht werden muss, bevor er wieder beschrieben werden kann. Diese Zyklenzahl wird Endurance (Beständigkeit) genannt. Verantwortlich für diese begrenzte Lebensdauer ist das Auftreten von Schäden in der Oxidschicht im Bereich des Floating-Gates, was das Abfließen der Ladung bewirkt. Eine andere wichtige Kenngröße ist die Zeit der fehlerfreien Datenhaltung, die Retention. Ein weiterer Nachteil ist, dass der Schreibzugriff bei Flash-Speicher erheblich langsamer erfolgt als der Lesezugriff. Zusätzliche Verzögerungen können dadurch entstehen, dass immer nur ganze Blöcke gelöscht werden können. Techniken Das wichtigste Kriterium zur Unterscheidung von Flashtechniken ist die Geometrie der Speicherzelle, des Flashtransistors, unter anderem werden folgende Zelltypen unterschieden (dabei können mehrere der nachfolgenden Merkmale zugleich zutreffen): die Split-Gate-Zelle die ETOX-Zelle, eine vereinfachte Struktur, bei der der nach unten abknickende Teil des Steuer-Gates der Split-Gate-Zelle entfällt, deren Floating-Gate in aller Regel mit CHE geladen wird die UCP-Zelle (), die in der Regel in beiden Richtungen mit Fowler-Nordheim-Tunneling beschrieben wird die NROM-Zelle bei Charge-Trapping-Speichern: hier wird die Ladung direkt in eine Zone des Isolators aus Siliciumnitrid zwischen Kanal und Steuer-Gate „geschossen“, auch in Ausführungen, bei denen zwei Ladungszonen (eine in Source-, die andere in Drain-Nähe) ausgeprägt werden, wodurch diese Zelle zwei Bit auf einmal speichern kann. Üblich bei größeren NAND-Speichern in Form von vertikalen NAND-Strukturen (V-NAND), welche seit dem Jahr 2002 verfügbar sind. die Zwei-Transistor-Zelle: ein normaler n-Kanal-Transistor und ein Flashtransistor hintereinander. Diese Zelle hat den Nachteil, dass sie größer ist, aber unter Umständen für Programmieren und Löschen einfacher ansteuerbar ist, was bei kleineren Speichergrößen in anderen Schaltungsteilen Flächeneinsparungen bringen kann. Multi-Level-Zelle: Hier speichert die Flash-Zelle nicht nur ein Bit, sondern (meist) zwei, inzwischen auch vier voneinander unabhängige Bitzustände. Diese werden in Leitfähigkeitswerte kodiert, die in der Ausleseelektronik wieder auf die beiden Bits verteilt werden. Der faktischen Verdopplung der Speicherkapazität steht aber die deutlich verlängerte Zugriffszeit (es muss eine analoge Spannung auf vier Niveaus gegenüber nur zwei bei den binären Flash-Zellen überprüft werden) und eine größere Fehlerwahrscheinlichkeit (eine Leitfähigkeitsänderung um ein Sechzehntel des maximalen Leitfähigkeitsunterschied kann bereits den Wert des in der Zelle gespeicherten Niveaus verändern) entgegen. Speichergrößen Anfang 2009 lieferten mehrere Hersteller (Samsung, Toshiba und andere) NAND-Flash-Speicher mit 16 Gigabyte in SLC-Technik () und 32 Gigabyte in MLC-Technik (), NOR-Flash-Speicher erreichte zur gleichen Zeit 1 Gigabyte Speicherkapazität. Der Unterschied in der Speicherkapazität führt vor allem dazu, dass bei NAND-Flash-Speicher die Daten- und Adress-Leitungen auf denselben Anschlüssen (Pins) ausgeführt werden, d. h., derselbe Anschluss abwechselnd für Daten- und Adressübermittlung genutzt wird („Multiplex“), während bei den NOR-Flash-Speichern diese getrennt sind. Dadurch können die NOR-Typen wesentlich schneller bei den Datenzugriffen sein, haben aber bedeutend mehr Pins und benötigen damit prinzipiell größere Gehäuse. De facto sind jedoch bei hohen Kapazitäten die Gehäuse der NAND-Typen nahezu genauso groß wie jene der NOR-Typen, was aber an dem sehr großen Speicherchip im Innern, nicht am Platzbedarf der Anschlüsse liegt. Dennoch sind die wenigsten Gehäusepins bei NAND-Typen tatsächlich angeschlossen, der Vorteil der simpleren „Verdrahtung“ des Bausteins im Gerät bleibt deshalb erhalten. Mit Stand 07/2020 sind SSDs mit bis zu 30 TB Speichergröße erhältlich. Anzahl der Löschzyklen Die maximale Anzahl der Löschzyklen von Flash-Speichern variiert je nach Hersteller, Technik (MLC- oder SLC-NAND, NOR) und Strukturgröße (50 nm, 34 nm, 25 nm). Die Herstellerangaben bewegen sich im Bereich von 3.000 bis zu mehreren 100.000. Micron Technology und Sun Microsystems gaben 2008 die Entwicklung eines SLC-NAND-Flash-Speichers bekannt, dessen Lebenserwartung 1.000.000 Zyklen beträgt. Der Flash-Speicher speichert seine Informationen auf dem Floating-Gate. Bei einem Löschzyklus durchtunneln die Elektronen die Oxidschicht. Dafür sind hohe Spannungen erforderlich. Dadurch wird bei jedem Löschvorgang die Oxidschicht, die das Floating-Gate umgibt, ein klein wenig beschädigt (Degeneration). Irgendwann ist die Isolation durch die Oxidschicht nicht mehr gegeben, die Elektronen bleiben nicht mehr auf dem Floating-Gate gefangen, und die auf der Speicherzelle gespeicherte Information geht verloren. Der Defekt einer einzelnen Zelle macht einen Flash-Speicher jedoch noch lange nicht unbrauchbar. Defektmanagement im Flash / Ansteuerlogik Ausfälle einzelner Zellen werden durch eine Fehlererkennung erkannt und in einem geschützten Bereich protokolliert. Für die Fehlererkennung und Fehlerkorrektur werden zu jedem Block (512 Byte) zusätzliche Bits gespeichert. Mit diesen Schutzbits sind einzelne fehlerhafte Bits korrigierbar, Fehler über mehrere Bits werden nicht sicher erkannt. Die Ansteuerlogik zeigt Fehler dieses Blocks an, die Treibersoftware kann dann diese Blocks als defekt markieren. Diese Defekttabelle befindet sich im sogenannten Spare-(Reserve-)Bereich des Flash, der im normalen Betrieb nicht beschrieben wird. Die Berechnung und Steuerung der Schutzbits wird in der Ansteuerlogik, nicht im Flash selbst realisiert. Neben einfachen Hamming-Codes kommen vor allem BCH-Codes und Reed-Solomon-Codes zur Anwendung. Defektmanagement durch Software Um solche Defekte zu vermeiden, wird die Treibersoftware so ausgelegt, dass sie die Schreib- und Löschaktionen möglichst gleichmäßig über den gesamten Speicherbereich eines Bausteins verteilt und beispielsweise nicht einfach immer bei Adresse 0 anfängt zu schreiben. Man spricht dabei von Wear-Leveling-Algorithmen (deutsch: Algorithmen für gleichmäßige Abnutzung). Vor- und Nachteile Als nichtflüchtiges Speichermedium steht der Flash-Speicher in Konkurrenz vor allem zu Festplatten und optischen Speichern wie DVDs und Blu-ray-Discs. Ein wesentlicher Vorteil liegt in der mechanischen Robustheit von Flash-Speicher, da keine beweglichen Teile enthalten sind. Demgegenüber sind Festplatten sehr stoßempfindlich (Head-Crash). Ein weiterer Vorteil ist die zulässige höhere Umgebungstemperatur, wobei die Betriebstemperatur des Speicherelements mit maximal 100 °C geringer ist als bei modernen Magnetschichten einer Festplatte (größer 100 °C). Da ein Flash-Speicher ohne mechanisch bewegliche Teile auskommt, bietet er gleich eine Reihe von Vorteilen gegenüber anderen Festspeichern: Sowohl der Energieverbrauch als auch die Wärmeentwicklung sind geringer. Außerdem arbeitet der Speicher geräuschlos und ist weitestgehend unempfindlich gegen Erschütterungen. Durch die Implementierung als Halbleiterspeicher ergibt sich ein geringes Gewicht sowie eine kleine Bauform. So erreicht eine 256-GB-microSD-Karte inklusive Plastikgehäuse eine Datendichte von ≈4,43 GB/mm³. Die Zugriffszeiten sind im Vergleich zu anderen Festspeichern sehr kurz. Dadurch wird nicht nur die Leistungsfähigkeit verbessert, es erschließen sich auch neue Anwendungsfelder. So wird ein Flash-Speicher zum Beispiel als schneller Zwischenspeicher benutzt, beispielsweise als ReadyBoost-Cache. Die minimalen Kosten pro Speichersystem können gegenüber Festplatten geringer sein, zum Beispiel bei günstigen Netbooks. Mit einem flüchtigen Speicher wie RAM () kann die Flash-Technik nicht konkurrieren, da die erreichbaren Datenraten bei Flash deutlich geringer sind. Außerdem ist die Zugriffszeit bei NAND-Flash für Lese- und Schreibzugriffe deutlich größer. Bei NOR-Flash trifft dies nur auf die Schreibzugriffe zu. Die Kosten pro Gigabyte sind für Flash-Speicher noch deutlich größer als für Festplatten und optische Disks. Ein Hauptproblem der Flash-Speicher ist die Fehleranfälligkeit. Sektoren werden vor allem durch Löschzugriffe beschädigt, mit der Zeit unbeschreibbar und somit defekt (siehe Anzahl der Löschzyklen). Unabhängig davon können permanente Bitfehler auftreten. All diese Fehler können durch geeignete Fehlerkorrekturmaßnahmen versteckt werden, dies ist jedoch aufwendig und erhöht die Komplexität der Flash-Controller. Dennoch lässt es sich nicht verhindern, dass ein Flash-Speicher mit der Zeit kleiner wird, da die Anzahl der benutzbaren Sektoren abnimmt. Im Vergleich mit der Lebensdauer einer Festplatte ist dieser Effekt jedoch vernachlässigbar. Bei übermäßiger Nichtbenutzung und bei qualitativ minderwertigen Flash-Datenträgern könnte der Verlust elektrischer Ladung in den Transistoren Daten in Sektoren beschädigen. Die Firmware verhindert dies normalerweise durch das Auffrischen von Daten im Leerlauf. Derartige Fehler sind lediglich logische, keine physischen, und betroffene Sektoren sind wiederverwendbar. Im Falle eines physischen Hardware-Defektes ist eine Datenrettung aufwändiger und tendenziell erfolgloser als mit anderen Datenträgertypen. Literatur Weblinks Algorithmus zum Ersatz von EEPROM durch Flash-Speicher (englisch) Grundlagen der Flash-Technik Fachartikel auf Storage-Insider.de Einzelnachweise Speichermodul Speicherkarten Halbleiterspeichertechnik
Q174077
153.117327
3692170
https://de.wikipedia.org/wiki/%C3%85landsee
Ålandsee
Ålandsee, auch Åländer See, schwedisch Ålands hav, ist ein Teil der Ostsee und erstreckt sich zwischen der Küste des schwedischen Uppland und der finnischen Insel Åland. Geografie Die im Juni 2014 vereinbarte nautische Einteilung der Baltic Sea Hydrologic Commission (BSHC) rechnet die Ålandsee zum Bottnischen Meerbusen. In der naturwissenschaftlich begründeten Gliederung der schwedischen Vermessungsbehörde Lantmäteriet wird nur der nördliche Teil jenem zugerechnet, der Bereich südlich der Meerenge des Södra Kvarken (Südkvark) hingegen der Eigentlichen Ostsee. Die Küsten der Ålandsee weisen Schären auf, jedoch nicht so zahlreich wie die Åländer Schären in der zwischen Åland und dem finnischen Festland liegenden Schärenmeer (Archipelsee). Zu den Schären der Ålandsee gehört die zwischen Schweden und Finnland geteilte Schäre Märket. In der von Nordwesten nach Südosten am Grund der Ålandsee verlaufenden Rinne liegt die mit 301 Metern zweittiefste Stelle der Ostsee. Verkehr Von 1636 bis zur Einführung der Dampfschifffahrt führte die Postroute von Stockholm nach Finnland und nach der Abtretung Finnlands an Russland 1743 von dort weiter nach Sankt Petersburg über die Ålandsee und durch das Schärenmeer (Archipelsee) nach Åbo, finnisch Turku. Im Winter wurden die Postboote als Schlitten über das Eis gezogen. Seit den 1960er Jahren besteht ein Fährverkehr von Kapellskär nach Mariehamn über die Ålandsee. Quellen und Referenzen Geographie (Ostsee)
Q271043
97.332726
43390
https://de.wikipedia.org/wiki/Logistik
Logistik
Die Logistik ist sowohl eine interdisziplinäre Wissenschaft als auch ein Wirtschaftszweig oder eine betriebliche Funktion in Wirtschaftssubjekten, die sich mit der Planung, Steuerung, Optimierung und Durchführung von Güter-, Informations- und Personen­strömen befasst. Allgemeines Zu diesen Strömen zählt das Transportieren, Umschlagen, Lagern (TUL-Prozess), Kommissionieren, Sortieren, Verpacken und Verteilen. Bei Stückgütern spricht man vom Materialfluss. Zum Teil wird auch die Gesamtheit dieser planerischen oder durchführenden Prozesse als Logistik bezeichnet. Neben dieser sogenannten prozess- oder flussorientierten Sichtweise auf die Logistik gibt es auch andere Sichtweisen, die sie als Instrument der Unternehmensführung betrachten, sowie die Sichtweise, dass sämtliche Phasen im Produktlebenszyklus von der Logistik betrachtet werden (lebenszyklusorientierte Sichtweise). Wirtschaftssubjekte, die Logistik betreiben, sind Unternehmen, der Staat (Behörden) oder Privathaushalte. Die Logistikbranche besteht zu einem großen Teil aus Spediteuren und Lagereien sowie Verkehrsunternehmen und wurde durch die Verteilung (Dislozierung) von Produktionen auf zahlreiche Standorte (Globalisierung) seit Ende des 20. Jahrhunderts immer bedeutender. In Deutschland ist sie inzwischen die drittgrößte Branche nach Zahl der Beschäftigten bei vergleichsweise geringer spezifischer Wertschöpfung. Wirtschafts- und Ingenieurwissenschaften beschäftigten sich selbstständig mit den verschiedenen Aspekten der Logistik. Dazu zählt beispielsweise das Lieferkettenmanagement sowie die Verkehrs- oder Materialflusstechnik. Die entsprechenden Teildisziplinen sind inzwischen zu einer neuen interdisziplinären Wissenschaft zusammengewachsen. In Organisationen gibt es oft eigenständige Bereiche, die sich mit der Logistik beschäftigen. Im Militär ist dies die Logistiktruppe, in Krankenhäusern die Krankenhauslogistik und in Unternehmen Logistikabteilungen mit unterschiedlichem Aufgabenumfang. Der Ursprung der Logistik liegt im militärischen Bereich, in den 1960ern und 70ern verbreitete sie sich auch in der Wirtschaft. Der Großteil der modernen Fachliteratur befasst sich mit der Logistik von Unternehmen. Der Begriff der Logistik wurde über die folgenden Jahrzehnte immer weiter ausgedehnt. Anfangs war damit nur die Verteilung von Waren gemeint (Absatzlogistik), bald auch die Beschaffungslogistik und die Produktionslogistik. Im Zentrum der Betrachtung standen die Transportlogistik, das Umschlagen und das Lagern. Moderne Interpretationen betrachten nicht nur die Querschnittsfunktion innerhalb eines Unternehmens über Beschaffung, Produktion und Absatz hinweg, sondern auch die gesamte Lieferkette und Wertschöpfungskette über mehrere Unternehmen hinweg. Etymologie Das Fremdwort Logistik bedeutet so viel wie „beherbergen, einquartieren, unterbringen“ (, „logieren“) und wurde 1830 zunächst vom Militär für die Theorie und Praxis der Nachschub-, Transport- und Versorgungssysteme verwendet. Das Wort Logistik wurde erstmals 1830 vom französischen Militärtheoretiker Antoine-Henri Jomini verwendet. Er definierte es in seiner Schrift Zusammenfassung der Kriegskunst (), die in der Ausgabe von 1830 mit Analytische Tafel () betitelt war und leitet ,(l'art) logistique‘ () vom französischen Wort ,logis‘ (,Unterkunft‘) ab, das wiederum auf das urgermanische *laubja- (,Obdach‘) zurückgeht. Die historische Herleitung des Wortes zeigt den Bezug zum militärischen Nachschubwesen auf, dem die Logistik entspringt. Die Wortbildung verläuft analog und ist homonym zum altgriechischen Wort (logistikē, ‚praktische Rechenkunst‘), geht aber auf eine germanische Wurzel zurück. Entwicklungstrends Insbesondere in der Automobil-, Raum- und Luftfahrzeugfertigung übernehmen Logistiker zunehmend ausgelagerte Fertigungsstufen der Vorwärtsintegration von Baugruppen (Auspuff, Achsen, Sitze, Kabelbäume, Ladevorrichtungen, Tanks). Besonderheit ist dabei meist die Anlieferung an der Produktionsstraße nicht nur just-in-time, sondern für flexible Fertigung auch just-in-sequence. Geschichte Historisch hat die Logistik ihren Ursprung im Militärwesen. Schon eine römische Legion verfügte über einen Tross für die Versorgung und den Nachschub der Truppe. Eine Heerstraße (Via Militaris) als Typ einer Römerstraße war extra dafür geplant und gebaut, um nicht nur Truppen schnell verlegen, sondern auch leichter versorgen zu können. In späteren Jahrhunderten und mit der Modernisierung der Kriege wurden viele der römischen Ideen wieder aufgegriffen (Napoleonische Kriege und europäische Befreiungskriege). Im Ersten Weltkrieg bewegten alle Kriegsparteien enorme Materialmengen; er gilt als der erste ‚industrialisierte Krieg‘. Er war geprägt von Materialschlachten; ebenso der Zweite Weltkrieg. Seit Beginn des 20. Jahrhunderts wurde das militärische und zivile Transportwesen immer stärker motorisiert. Das moderne Nachschubwesen stützt sich auf Lkw, Eisenbahn und Flugzeuge. Viele Militärlogistiker fanden nach dem Zweiten Weltkrieg in der Wirtschaft Arbeit, sodass sich der Begriff Logistik auch dort ausbreitete. Erste Arbeiten amerikanischer Wissenschaftler aus den 1960er Jahren stammten von Smykay, Bowersox, Mossman und beschäftigten sich mit der Distribution von Waren. Das Beispiel eines größeren Unternehmens, das seinen Umsatz um fast 50 % steigern konnte, indem es weltweit die damals hochmodernen Hochregalläger errichtete, um so kürzere Lieferzeiten zu erreichen, sprach sich in der Wirtschaft schnell herum. In den 1970er Jahren wurden die klassischen Aufgaben der Logistik – Transport, Umschlag, Lagerung – als Bestandteile einer abgegrenzten Logistikabteilung wahrgenommen. Diese Sichtweise hat sich in den folgenden Jahren Schritt für Schritt erweitert. Nachdem die logistischen Optimierungspotenziale in der abgegrenzten Abteilung erschöpft waren, folgte der Aufstieg der Logistik in der Unternehmenshierarchie. In den 1980er Jahren wurde die Logistik als Querschnittsfunktion eines Unternehmens dargestellt. Ihre Aufgabe änderte sich hin zu der optimalen Gestaltung aller logistischen Prozesse vom Wareneingang bis hin zum Warenausgang eines Unternehmens. Dadurch gelang es den Unternehmen, weitere Prozessoptimierungen umzusetzen. In den 1990er Jahren entstand der Gedanke der Optimierung kompletter Wertschöpfungsketten, der Supply Chains. Der logistische Optimierungsgedanke ging nun über Unternehmensgrenzen hinaus und betrachtete den kompletten Wertschöpfungszyklus von der Quelle (des Rohmaterials) bis zur Senke (der Entsorgung eines Produktes). Um das Jahr 2000 wandelte sich die akademische Betrachtung der Logistik erneut. Die festen Supply Chains wichen den Gedanken von losen Logistiknetzwerken, deren verschiedene Teilnehmer jeweils für sich ein lokales Optimum in den Logistikprozessen anstreben, um so Vorteile für das gesamte Netzwerk zu generieren. Logistik als Branche Die Logistik war mit einem Umsatz von 222 Mrd. Euro und 2,9 Mio. Beschäftigten im Jahr 2011 die drittgrößte Branche in Deutschland. In Europa wurden 2009 fast 900 Mrd. Euro umgesetzt, bei einem Weltumsatz von 4200 Mrd. Euro. Der deutsche Logistikmarkt ist der größte Europas, gefolgt von Frankreich, Großbritannien und Italien. Etwa ein Drittel wird durch Transport umgesetzt. Die Branche ist geprägt durch eine große Anzahl unterschiedlicher Unternehmen – in Deutschland über 60.000. Dazu zählen Speditionen, Transporteure, Lagerdienstleister, Hafen- und Flughafenbetreiber, Reedereien, Fluggesellschaften, Eisenbahnverkehrsunternehmen, Bus- und Taxiunternehmen, Kurier-, Express- und Paketdienste (KEP-Dienste), die Post sowie Hersteller von Technik, die sich unter dem Namen Intralogistik zu einer Teilbranche zusammengeschlossen haben. Viele dieser Unternehmen treten ihren Kunden gegenüber als Logistikdienstleister auf. Logistik als Wissenschaft Die Wirtschaftswissenschaften befassen sich mit den wirtschaftlichen Zusammenhängen und Gesetzmäßigkeiten der Logistik. In der Betriebswirtschaftslehre werden bspw. mittels der Prozesskostenrechnung Kosten der einzelnen Prozesse in einem System ermittelt, aber auch Einflussfaktoren der einzelnen Ströme und deren Auswirkungen. Weiter werden Kennzahlen und Analysefunktionen wie bspw. Kosten-Nutzen-Analyse, Nutzwertanalyse zur Kontrolle und Optimierung der Prozesse eingesetzt. In der betrieblichen Praxis ist die Logistik sehr eng mit der Produktionsplanung und -steuerung verbunden. Die Grenzen zwischen diesen Bereichen sind zunehmend fließend geworden. Die Volkswirtschaftslehre untersucht die Logistik vor allem als Branche. Untersucht wird aber auch welche Eigenschaften der Logistikmarkt aufweisen muss, um optimal zu funktionieren. Gerade durch die Globalisierung ist es in diesem Bereich zu größeren Veränderungen gekommen. Die Ingenieurwissenschaften beschäftigen sich mit der technischen Ausführung der Transporteinrichtungen und Ausgestaltung der Transportnetzstrukturen. Zu den Disziplinen gehört die Fördertechnik, die Materialflusstechnik, die Lagertechnik und die Verkehrsbetriebstechnologie. Informationstechnik und Telematik dient der Kontrolle und Steuerung der Ortsänderungsprozesse. Automatisierungstechnik erlaubt, logistische Prozesse zu automatisieren. Das Operations Research hat viele mathematische Modelle entwickelt die durch logistische Problemstellungen motiviert sind. Bekannt sind beispielsweise Standortmodelle: Sie versuchen in der Regel einen Unternehmensstandort in der Ebene so zu platzieren, dass die entstehenden Transportkosten minimiert werden. Dazu zählen das Steiner-Weber-Modell und das Warehouse Location Problem. Beim Transportproblem sind die Standorte der Warenläger und der Kunden sowie ihre Angebots- und Nachfragemengen bekannt. Es soll jedoch noch entschieden werden, welcher Kunde von welchem Lager beliefert werden soll. Andere Modelle suchen nach kürzesten Wegen, Rundreisen oder Touren. Eine große Rolle spielen Graphen: Orte werden meist als Knoten modelliert und Verbindungen (Straßen) als Kanten. Logistik in Streitkräften In Streitkräften werden logistische Aufgaben als Militärlogistik bezeichnet und durch die Logistiktruppe wahrgenommen. Grundlagen der Logistik Ziele Die Ziele der Logistik sind die Erbringung einer hochwertigen Leistung, Qualität und Kostensenkung. Hierbei entstehen Zielkonflikte. Beispielsweise wird ein hoher Lagerbestand zwar die Fehlmengenkosten vermindern sowie die Lieferbereitschaft erhöhen, jedoch steigen dadurch automatisch die Lagerhaltungskosten. Die Logistik-Kostenrechnung dient hierbei als Instrument zur Ermittlung des Optimums. Generell wird versucht, überflüssige Transporte zu vermeiden. So kann es sein, dass ein Zulieferer mehrere Teile zusammen montiert, weil hierdurch unter dem Strich weniger Transportarbeit anfällt. Bei einer Warenverteilung kann es sinnvoll sein, hiermit eine Spezialfirma (eine Spedition) zu beauftragen. Diese hat dann auch andere Auftraggeber, setzt z. T. moderne Flottensteuerungslösungen ein und kann so teure Leerfahrten besser vermeiden. Sobald dieser Teil reibungslos funktioniert, liegt es auf der Hand, auch die Terminplanung mit der Bestellung der Vorprodukte und dem Versand der Fertigprodukte hiermit zu verknüpfen. Alle Fachabteilungen haben durch ein Warenwirtschaftssystem die gleiche Informationsbasis. Schließlich erfolgt die Bewertung aller Vorgänge unter buchhalterischen Gesichtspunkten. Aufgaben Pragmatisch wird die Aufgabe durch Reinhardt Jünemann (1989) formuliert: „Der logistische Auftrag besteht darin, die richtige Menge, der richtigen Objekte als Gegenstände der Logistik (Güter, Personen, Energie, Informationen), am richtigen Ort (Quelle, Senke) im System, zum richtigen Zeitpunkt, in der richtigen Qualität, zu den richtigen Kosten zur Verfügung zu stellen.“ Diese Zielvorgabe ist gemeinhin auch als die 6 R der Logistik bekannt. Vielfach findet sich auch eine Beschränkung auf weniger als sechs Ziele (z. B. das richtige Produkt zur richtigen Zeit in der richtigen Qualität am richtigen Ort) unter angepasster Bezeichnung (4-R-Regel). Die Ziele der Logistik werden zunehmend anspruchsvoller. Daher wird mittlerweile auch von Sieben R oder sogar 7R+ gesprochen. Aufgaben der Logistik sind u. a. Transport, Umschlag, Lagerung, Bereitstellung, Beschaffung und Verteilung von Gütern, Personen, Geld, Informationen und Energie und deren Steuerung, Kontrolle und Optimierung. Die aufgabenorientierte Gliederung der Logistik ist eine gängige Form, da sie in vielen Teillogistikbereichen (u. a. Beschaffungslogistik, Produktionslogistik und Distributionslogistik) zur Anwendung kommt. Eine logistische Aufgabe ist u. a. der Transport von Gütern vom Produzenten zum Kunden oder vom Verkäufer zum Endkunden. Eine weitere Aufgabe ist u. a. der innerbetriebliche Transport von Waren/Material und Informationen, z. B. Waren aus dem Lager zum Produktionsort zu transportieren, Mitarbeiter mit Informationen und Arbeitsmaterialien zu versorgen usw. So sind die verschiedenen Fachdisziplinen der Logistik mehr oder weniger abhängig von der Effizienz der Infrastruktur der Unternehmen, der Städte usw. aber auch von den technologischen Systemen. Eine Aufgabe der Distributionslogistik ist die rechtzeitige Planung anhand von allgemeinen Verkehrsverboten, gesetzlichen Feiertagen und zeitlichen Einschränkungen. Ergänzt wird sie durch die Vorbereitung der Transportpapiere unter Wahrung der Sozialvorschriften im Straßenverkehr durch den Disponenten und die Sicherung, Bereitstellung und Kontrolle von Gütern oder Waren während der Lagerung. Eine weitere Aufgabe ist die Beförderung von Schwerlasten (nicht maß- und/oder gewichtsgerechte Frachtgüter) oder der Transport und die Lagerung von Gefahrgut, für die bestimmte erweiterte gesetzliche Vorschriften bestehen. Darunter fallen Ausnahmegenehmigungen und die Stellung von Begleitfahrzeugen inklusive korrekte Gefahrzeichen-Verbringung am Fahrzeug, das diesen Transport durchführen soll. Für andere Bereiche sind neben zollrechtlichen Vorschriften auch CEMT-Genehmigungen erforderlich. Besonderes Augenmerk hat die innergemeinschaftliche Lieferung. Der Disponent entscheidet auch, ob Huckepackverkehr oder intermodaler bzw. multimodaler Verkehr sinnvoll sind oder welcher Verkehrsträger über welchen Verkehrsweg gewählt werden soll. Bereiche der Logistik Die Logistik stellt für Gesamt- und Teilsysteme in Unternehmen, Konzernen, Netzwerken und virtuellen Unternehmen kunden- und prozessorientierte Lösungen bereit. Logistik (im betriebswirtschaftlichen Sinne Warenbewegung) verbindet die betrieblichen Bereiche Lagerung und Transportwesen. Unter dem Lohnkostendruck und mit Hilfe eines Warenwirtschaftssystems war es notwendig und möglich diese beiden Bereiche unter einer gemeinsamen Strategie zusammenzufassen. Funktionsbereiche Innerbetrieblicher Transport Außerbetrieblicher Transport Umschlag (Beladen, Entladen sowie Umladen) Lagerhaltung / Bestandsmanagement und Kommissionierung Warenprüfung und Handhabung Verpackungen Informationslogistik: Information entgegengesetzt dem Materialfluss. Diese Informationen müssen optimal zur Verfügung gestellt werden. Mit der Lieferung verläuft die Information zu den Gütern parallel zum Materialfluss. Lagerlogistik: Planung und Betrieb von Lagersystemen (Lagerstandort, Lagertechnik, Lagerorganisation usw.) Fachdisziplinen der Logistik Man untergliedert in der Betriebswirtschaftslehre die Logistik im engeren Sinne horizontal auch in die vier Subsysteme: Beschaffungslogistik: optimale und zeitgerechte Zulieferung und Beschaffung von benötigten Gütern. Teilbereich der Inbound-Logistik Produktionslogistik: Planung, Steuerung und Überwachung der innerbetrieblichen Transport-, Umschlags- und Lagerprozesse Distributionslogistik (Vertriebs-, Absatzlogistik): Verteilung oder Zustellung bzw. Vertrieb von Gütern, auch Outbound-Logistik genannt, Entsorgungslogistik (Reverse-Logistik): Rücknahme von Abfällen und Rückständen zur Beseitigung oder Verwertung, Recycling Teilbereiche der Logistik Lagerlogistik: beinhaltet die Planung, Durchführung und Kontrolle aller logistischen Maßnahmen bezüglich der Standortwahl des Lagers, Gestaltung optimaler Lagersysteme und Lagerorganisation sowie der Lagertechnik. Transportlogistik: beschäftigt sich mit der physikalischen Verbringung von Gütern zwischen verschiedenen Orten innerhalb von Logistiknetzwerken. Nach Art der Tätigkeit wird auch zwischen Lagerlogistik (Lagerwesen), Verpackungslogistik und Transportlogistik unterschieden. Häufig taucht in diesem Zusammenhang auch der Begriff Intralogistik auf, der in der Regel die kompletten logistischen Vorgänge an einem Standort übergreifend zusammenfasst und je nach Betrieb eine Kombination aus Produktionslogistik, Lagerlogistik und Verpackungslogistik darstellt. Krankenhauslogistik: beschäftigt sich mit den spezifischen logistischen Prozessen und Transportströmen in Krankenhäusern Kontraktlogistik: TUL-Prozesse (Transport/Umschlag/Lagerung) im Rahmen eines Vertrages zwischen Dienstleister und Kunden, wobei ein bestimmter Mehrwert durch bestimmte Arbeiten wie zum Beispiel durch Kommissionieren, Fakturieren, Konfektionierung und so weiter erreicht werden soll. Pharmalogistik: Die Pharmalogistik ist ein spezielles Teilgebiet der Logistik und umfasst grundsätzlich alle logistischen Prozesse der Pharmaindustrie und der nachgeordneten Distributoren. Dadurch wird die Verfügbarkeit von Arzneimitteln und der Wirk- und Einsatzstoffe, die für die Herstellung dieser Arzneimittel benötigt werden, entlang der gesamten Lieferkette sichergestellt. Die Verfügbarkeit von Arzneimitteln basiert auf Beschaffungs- und Vertriebsstrategien der Marktteilnehmer wie Pharmaunternehmen, Großhändler und Apotheken. Informationslogistik: beinhaltet die strategische Planung und Entwicklung aller für die Geschäftsprozessabwicklung und die für den Informationsaustausch erforderlichen Informationssysteme und Prozesse sowie die Sicherstellung einer hohen Qualität und die durchgängige Verfügbarkeit der bereitgestellten Informationen. Ersatzteillogistik: beinhaltet die Sicherstellung der Einsatzfähigkeit der verkauften Produkte durch Ersatz- oder Wartungsprodukt und ist ein Teilgebiet der Distributionslogistik. Für die Investitionsgüterindustrie ist die Ersatzteillogistik für den After Sales Service von großer Bedeutung. Globalisierte Logistik: Ein nicht unwesentlicher Faktor in der internationalen Logistik ist die Bürokratie bei grenzüberschreitender Beschaffung. Länderspezifische Bestimmungen gehören vor einem Verkaufsabschluss geprüft. Notwendige Export.- Importlizenzen, Ursprungszeugnisse etc. müssen vor der Disposition besorgt werden. Arbeitsmarkt und Ausbildungen Die Logistik hat sich zu einem Berufsfeld für gewerbliche und kaufmännische Berufe sowie für Ingenieure und Betriebswirte auf akademischer Ebene entwickelt. Tätigkeiten in der Logistik sind sehr vielfältig und reichen von Stapler- und Lkw-Fahrern, Lageristen, Kommissionierern und Disponenten über Speditionskaufleute, Einkäufern und Supply-Chain-Managern, hin zu Konstrukteuren, Logistikplanern und -controllern. Der Logistics Performance Index 2014, eine Studie der Weltbank, sieht in der Ausbildung von Logistikfachleuten und Supply Chain Management-Spezialisten eine der wichtigsten Aufgaben für das Funktionieren der Weltwirtschaft. Führungspositionen im mittleren oder oberen Management erfordern einen akademischen Abschluss. Es gibt zahlreiche Hochschulen, die Bachelor- oder Masterprogramme mit Spezialisierung in Logistik und Supply Chain Management anbieten. Hohe Logistikanteile findet man in den Studiengängen des Wirtschaftsingenieurwesens, mit durchschnittlich 12 Semesterwochenstunden (SWS) und der Betriebswirtschaftslehre (10 SWS), der Wirtschaftsinformatik und dem Verkehrswesen (je 9 SWS). Mit etwas Abstand folgt der Maschinenbau (6 SWS). 2012 fanden in Deutschland 2,7 Millionen Menschen Arbeit in der Logistik. Arbeitgeber sind Speditionen, Bahnbetriebe, Häfen und Flughäfen, Güterverkehrszentren, Busunternehmen oder Hersteller von technischen Einrichtungen. Logistik-Optimierungsansätze Durch moderne Konzepte wie Efficient Consumer Response, Just-in-time-Produktion, Supply Chain Event Management, Category Management oder Kanban kann Logistik effizienter gestaltet werden. Unter Logistik 4.0 wird ein Anwendungsgebiet der Industrie 4.0 verstanden. Es stellt die Vernetzung und Integration von Prozessen, Objekten, Lieferanten, Händlern, Herstellern und Kunden dar. Voraussetzung hierfür ist eine adäquate (informations-)technologische Unterstützung wie z. B. durch EDI (Electronic Data Interchange), RFID (Radio Frequency Identification), Strichcodes, Enterprise-Resource-Planning- bzw. Advanced-Planning-and-Scheduling-Systemen sowie Tracking-&-Tracing-Systemen. Nachhaltige Logistik Die Forderung nach einem nachhaltigen Wirtschaften ist spätestens seit 2009 auch in der Logistik angekommen. Die Logistik gilt jedoch vor allem beim Thema Schadstoffemissionen als Problemverursacher und nicht als Problemlöser. Diesem Paradigma wird mit dem Ansatz der Grünen Logistik versucht zu begegnen. Erst in jüngerer Zeit wird der Begriff „Nachhaltige Logistik“ mit allen drei Dimensionen der Nachhaltigkeit stärker betrachtet. Experten schlagen hierzu eine Vielzahl von Herangehensweisen vor, wie z. B. technische Innovationen, nachhaltige Logistiksysteme und Prozessoptimierungen innerhalb der Logistikketten. Siehe auch Literatur Timm Gudehus: Logistik, Grundlagen, Strategien, Anwendungen. 4. Auflage. Springer, Berlin/ Heidelberg/ New York 2010, ISBN 978-3-540-89388-2. Claus Muchna : Grundlagen der Logistik: Begriffe, Strukturen und Prozesse, Springer Gabler, Wiesbaden 2017, ISBN 978-3-658-18592-3 G. Schuh, P. Attig: Smart Logistics. Apprimus-Verlag, Aachen 2009, ISBN 978-3-940565-21-1. Richard Vahrenkamp: Die logistische Revolution: Der Aufstieg der Logistik in der Massenkonsumgesellschaft. Campus, Frankfurt am Main / New York 2011, ISBN 978-3-593-39215-8. Weblinks TUM Wiki: Logistikkompendium – Lexikon mit vielen relevanten Begriffen aus der Logistik Das Logistik-Glossar aus der Schweiz (nicht alle Begriffe sind gleich wie in Deutschland) House of Logistics & Mobility: frankfurt-holm.de Fraunhofer-Institut für Materialfluss und Logistik: internet-der-dinge.de Einzelnachweise Betriebswirtschaftslehre Distributionslogistik Management Planung und Organisation Transport Verkehrsdienstleistung
Q177777
196.376883
17691
https://de.wikipedia.org/wiki/Groningen
Groningen
Groningen ( , in alten hochdeutschen Dokumenten Gröningen, Groninger Platt Grönnen) ist die Hauptstadt der Provinz Groningen in den Niederlanden. Sie hat Einwohner (Stand: , mit dem Umland (Regio Groningen-Assen) 505.000 Einwohner). Die Gemeinden Ten Boer und Haren wurden zum 1. Januar 2019 nach Groningen eingemeindet. Die Stadt hat seit 1614 eine Universität, außerdem befindet sich in Groningen die Fachhochschule Hanzehogeschool. Fast 50.000 Studenten sind in der Stadt eingeschrieben. Geografie Ortslage Groningen liegt am nördlichen Ende des „Hondsrug“ (nicht zu verwechseln mit dem Hunsrück), einer sandigen Erhebung mitten im ehemals ausgedehnten Moor, die sich vom „Drentschen Plateau“ bis ins Zentrum der Stadt zieht und in früherer Zeit die einzige Verbindung dieser beiden Gebiete war. Groningen liegt 75 km westlich von Leer (Ostfriesland) und 180 km nordöstlich von Amsterdam an der A7 (E 22). Die Stadt ist ein Eisenbahnknoten und liegt 15 km nördlich vom Flughafen Groningen. Sie hat eine Fläche von 76,77 km² und liegt an den Kanälen Winschoterdiep, Nord-Willemskanal, Van Starkenborghkanaal und am Eemskanaal, der Groningen mit Delfzijl an der Emsküste verbindet. Dank ihrer günstigen Lage wurde die Stadt zum Mittelpunkt der Region. Die Innenstadt ist – wie bei alten Stadtkernen üblich – sehr dicht bebaut. Stadtgliederung Die Stadt Groningen (ohne Haren und Ten Boer) gliedert sich in fünf Stadtteile mit insgesamt 64 Vierteln ( „wijk“ und „buurt“). Centrum (Stadtmitte) mit den Vierteln: A-Kwartier, Binnenstad, Binnenstad-Oost, Hortusbuurt, Ebbingekwartier, Westerhaven, Stationsgebied Oude Wijken („Alte Viertel“, die vor allem im 19. Jahrhundert entstandenen Wohngebiete unmittelbar westlich, nördlich und östlich der Altstadt) mit den Vierteln: De Hoogte, Korrewegwijk, Indische buurt, Professorenbuurt, Noorderplantsoenbuurt, Oosterparkwijk, Oranjebuurt, Schildersbuurt, Kostverloren, Woonschepenhaven Oost (der Norden, Nordosten und Osten des Stadtgebietes) mit den Vierteln: Beijum, Drielanden, Engelbert, De Hunze, Van Starkenborgh, Lewenborg, Middelbert, Noorderhoogebrug, Oosterhoogebrug, Ruischerbrug, Meerstad, Noorddijk, Ulgersmaborg, Ruischerwaard, Woonschepenhaven Zuid (der Süden und Südosten des Stadtgebietes) mit den Vierteln: Badstratenbuurt, Coendersborg, Corpus den Hoorn, Grunobuurt, Helpermaar, Helpman, Herewegbuurt, Hoornse Meer, Hoornse Park, Laanhuizen, Rivierenbuurt, Oosterpoortbuurt, De Linie, Europapark, Piccardthof, De Wijert, Zeeheldenbuurt, Klein Martijn, De Meeuwen, Villabuurt, Kop van Oost West (der Westen und Nordwesten des Stadtgebietes) mit den Vierteln: De Buitenhof, Dorkwerd, Gravenburg, De Held, Hoogkerk, Leegkerk, Paddepoel, Reitdiep, Selwerd, Tuinwijk, Vinkhuizen Klimatabelle Geschichte Die Stadt Groningen oder Cruoninga – wie sie im Mittelalter hieß – entstand aus einem losen Zusammenschluss von drei oder vier verstreut gelegenen Bauernhöfen. Die ersten Spuren können auf ca. 300 v. Chr. datiert werden. Seit dem 7. Jahrhundert n. Chr. war der Kernbereich der jetzigen Altstadt – heute „de Grote Markt“ (deutsch: der Große Markt) – dauerhaft besiedelt. Dies ergaben Ausgrabungen des Archäologen Albert Egges van Giffen und des Rijksdienst voor het Oudheidkundig Bodemonderzoek (Reichsamt für archäologische Bodenuntersuchungen). Mittelalter Groningen wurde erstmals im Jahre 1040 urkundlich erwähnt, als die „villa Gruoninga“ durch eine Schenkung von Heinrich III. auf den Bischof von Utrecht überging. In dieser Urkunde verlieh der König der jungen Stadt auch das Münzregal und das Zollregal. Die Ortslage erwies sich als außerordentlich günstig für einen Umschlagplatz des Handels: Die Nordsee war über die Drentsche Aa erreichbar. Der Hondsrug, der „stert van Drentland“ (Sterz von Drente), schuf die Verbindung nach Süden. Viele Kaufleute, die mit England und den Ostseeländern handelten, ließen sich hier nieder. Ab 1260 wurde die Stadtmauer gebaut. Um die Schifffahrt von Groningen zur Nordsee zu erleichtern, wurde von der Drentschen Aa in Richtung Norden das Reitdiep gegraben, ein Kanal, der bei Wierumerschouw mit der Hunze (in ihrem damaligen Verlauf) verbunden und 1385 fertiggestellt wurde. Nach vergeblichen früheren Anläufen wurde Groningen 1422 schließlich in die Hanse aufgenommen. Bis zum 17. Jahrhundert – dem „Goldenen Zeitalter“ der Niederlande – hatte Groningen sich zu einem blühenden Handelszentrum entwickelt, nicht zuletzt aufgrund des dort existierenden Gerichts, das auch für die umliegenden Gebiete zuständig war. Frühe Neuzeit Im „friesischen Aufstand“, dem Machtkampf zwischen dem Erbstatthalter von Friesland, Albrecht dem Beherzten, dem Herzog von Sachsen, und seinem Sohn Heinrich dem Frommen einerseits und den friesischen Häuptlingen andererseits, stellte sich Groningen auf die Seite der Friesen. Daraufhin belagerte Herzog Albrecht die Stadt. Als im sächsischen Heer eine Seuche ausbrach, der auch der Herzog erlag, mussten die Sachsen die Belagerung zunächst aufheben. Doch 1506, als Herzog Albrechts Sohn, Herzog Georg der Bärtige, in Friesland einrückte, musste Groningen kapitulieren. Nur wenige Jahre später unternahm die Stadt Groningen einen weiteren Versuch, sich der kaiserlichen, durch den Erbstatthalter ausgeübten Macht zu entziehen. In der Sächsischen Fehde ergriff Groningen die Partei des ostfriesischen Grafen Edzard I. Daraufhin verhängte Kaiser Maximilian im April 1514 die Reichsacht über Groningen. Als sich Graf Edzard dem Kaiser unterwarf, musste sich auch Groningen dem Kaiser und dem sächsischen Herzog Georg dem Bärtigen unterwerfen. In der Absicht, das weitere Vordringen der Reformation aufzuhalten, wurde 1559 das Bistum Groningen errichtet. Ab 1580 befand sich Groningen, nachdem die Stadt sich dem kaiserlichen Feldherrn Alessandro Farnese, dem Herzog von Parma, unterworfen hatte, unter spanischer Herrschaft. Im Jahre 1594 eroberte Moritz von Oranien, der Kapitän-General der Vereinigten Niederlande, Groningen. Groningen wurde zusammen mit den umliegenden Gebieten, den Ommelanden, ein Teil der Republik der Vereinigten Niederlande und damit auch protestantisch. (Siehe Reductie van Groningen) Im Holländischen Krieg versuchte der Fürstbischof von Münster, Christoph Bernhard von Galen, 1672 die Stadt durch Belagerung und Kanonenbeschuss einzunehmen. Sein Faible für die Artillerie brachte ihm den Spitznamen „Bommen Berend“ („Bombenbernd“) ein. Am 28. August 1672 gelang es den Bürgern von Groningen, seinen Angriff abzuwehren. An dieses Ereignis erinnert in Groningen bis heute ein lokaler Feiertag mit vielen Aktivitäten, der sogenannte Gronings Ontzet (Entsatz von Groningen). Im 17. und 18. Jahrhundert war – dank des Meereszugangs über das Reitdiep und die Drentsche Aa – der Schiffsbau ein bedeutender Wirtschaftszweig; zahlreiche Werften entstanden. Im 18. und 19. Jahrhundert wurde ein Gutteil des niederländischen Ostseehandels über Groningen abgewickelt. Dank des Meereszugangs entstand in Groningen zudem ein bedeutender Fischmarkt. Dieser wurde im 17. Jahrhundert zunächst am Zuiderdiep abgehalten, der Gracht im Süden der Altstadt (heute, nach der Verfüllung, die Straße „Gedempte Zuiderdiep“), dann an den Spilsluizen, der Gracht im Norden der Altstadt, und seither auf dem Platz in der Stadtmitte, dem der Fischmarkt den Namen gab. Die Stadt Groningen richtete dort „Fischbänke“ genannte Marktstände ein, die an die Fischhändler verpachtet wurden. 19. Jahrhundert Ab 1810 war Groningen – wie die gesamten Niederlande – von Frankreich besetzt. Im Zuge der Befreiungskriege vertrieben russische Truppen der Nordarmee am 15. November 1813 die Franzosen aus Groningen; die Stadt war wieder frei. Die Industrialisierung begann in Groningen mit dem Bau der ersten Fabrik im Jahre 1840, einer Flachsspinnerei in der Vlasstraat, deren Spinnmaschinen mit einer 20-PS-Dampfmaschine betrieben wurden. Unter den 130 dort beschäftigten Arbeitern waren 87 Kinder. 1866 erhielt Groningen Anschluss an das Eisenbahnnetz, als letzte der größeren niederländischen Städte. Nicht weniger wichtig war die Fertigstellung des Eemskanaals 1876 als neuer und besserer Schifffahrtsweg zur Nordsee. 1880 wurde die erste Pferdestraßenbahn eröffnet. Die Stadtmauer, die bis 1874 weitgehend erhalten war, wurde in den Folgejahren niedergelegt. Danach, seit 1885, dehnte sich das Stadtgebiet weit über den Grachtenring hinaus. So entstanden u. a. die Arbeiterviertel Oosterpoortbuurt und Noorderplantsoenbuurt und das Villenviertel am Zuiderpaark. 20. Jahrhundert 1914 wurde das Dorf Helpman südlich der Stadt eingemeindet. Obgleich sich die Niederlande nicht am Ersten Weltkrieg beteiligten, wurden ab 1916 die Lebensmittel rationiert und Brotmarken eingeführt (bis 1920). 1917 richtete die Stadtverwaltung eine Zentralküche ein, um bei den Herden Gas und Kohle einzusparen, Lebensmittel in großen Mengen günstig einzukaufen und so Bedürftigen eine preiswerte warme Mahlzeit anzubieten. Die Centrale Keuken blieb bis zum April 1919 in Betrieb. Mit der Einführung des Frauenwahlrechts 1919 wurden im selben Jahr erstmals drei Frauen in den Stadtrat gewählt. 1914 waren entlang des Bedumerweg die ersten Sozialwohnungen entstanden. Die Wohnungszählung 1919 ergab, dass damals 45 % der Familien in Ein- oder Zweizimmerwohnungen lebten. Nicht zuletzt unter dem Eindruck der Ergebnisse der Wohnungszählung wurde die erste Hälfte der 1920er Jahre zu einer Hochzeit des Sozialwohnungsbaus. Nordwestlich der Altstadt, um die Oranjestraat, entstand der Stadtteil Oranjewijk. 1927 wurde der Stadtpark angelegt. Im Zweiten Weltkrieg wurde Groningen im Mai 1940 ohne Widerstand von deutschen Truppen besetzt (→Die Niederlande unter deutscher Besatzung (1940–1945)). 3300 Einwohner kamen im Krieg unmittelbar zu Tode, darunter 2800 jüdische Bürger Groningens. Bis zur Schoa bestand in Groningen eine jüdische Gemeinschaft. So war beispielsweise Attila Groningen der älteste jüdische Turn- und Sportverein in Europa, sechs Monate älter als Bar Kochba Berlin. Er war national orientiert und lehnte die Emigration nach Palästina sowie die Zusammenarbeit mit den zionistischen Makkabi-Vereinen ab. 1940 lebten 3000 Juden in Groningen, darunter 250 jüdische Flüchtlinge aus Deutschland. Die ersten 600 Groninger Juden wurden bereits im August 1942 deportiert; die Deportationen in die Arbeits- und Vernichtungslager endeten im April 1943. Nur wenigen Groninger Juden gelang es, unterzutauchen und zu überleben. Am Ende des Zweiten Weltkriegs erlitt die Stadt erhebliche Schäden. Als die 2nd Canadian Infantry Division (Kommandeur: Albert Bruce Matthews) im April 1945 Groningen erreichte, stieß sie auf heftigen Widerstand der deutschen Besatzungstruppen, von Teilen des „Landstorm Nederland“ der Waffen-SS und von belgischen SS-Einheiten (Kommandeur: Karl Böttcher). Vom 13. bis zum 16. April kämpften 14.000 Kanadier gegen bis zu 7.500 Verteidiger; in der Innenstadt gab es Straßenkämpfe. Schließlich kapitulierten die Verteidiger. 21. Jahrhundert Am 12. August 2012 richtete ein Erdbeben der Stärke 3,6 in der Provinz Groningen große Schäden an; es war das stärkste je in den Niederlanden gemessene. Zuvor und danach gab es in der Region weitere schwache Erdbeben; diese beschädigten zahlreiche Häuser und andere Bauten. Ursache der Beben ist offenbar die Förderung des unter dem Gebiet liegenden Erdgases. Sehenswürdigkeiten Gotteshäuser Die Martinikerk (Martinikirche) am „Grote Markt“, älteste und größte Kirche der Stadt, mit dem Martinitoren (Martiniturm) an der Westseite wurde zwischen 1469 und 1482 aus Bentheimer Sandstein errichtet. Von 1548 bis 1577 war der Turm 127 Meter hoch, bis die hölzerne Spitze anlässlich eines Freudenfeuers abbrannte, das nach dem Abzug der verhassten wallonischen Truppen infolge der Genter Pazifikation 1576 entzündet worden war. Die Orgel von Arp Schnitger wurde 1692 installiert. Die im 15. Jahrhundert erbaute Aa-Kirche mit Arp-Schnitger-Orgel von 1702. Pelstergasthuiskerk, geweiht 1267 Die folgenden vier Gotteshäuser wurden im Stil der Backsteingotik erbaut: Die Nieuwe Kerk wurde ab 1660 in der ab 1625 angelegten Stadterweiterung Hortusbuurt inmitten des parkartigen Nieuwe Kerkhof errichtet. Die neugotische Sint-Jozefkathedraal ist die katholische Hauptkirche der Stadt und die Bischofskirche des Bistums Groningen. Synagoge: In der 1906 erbauten Synagoge in der Folkingestraat werden seit 1981 wieder jüdische Gottesdienste gefeiert. Petruskerk (Zuidbroek): Eine Kirche der Romano-Gotik mit wertvoller Orgel. Weltliche Bauwerke Das Haus Brugstraat 24 wurde im 15. Jahrhundert errichtet und ist das am besten erhaltene backsteingotische Bürgerhaus der Stadt. Provinzhaus, Sitz der Provinzregierung. Der älteste Flügel steht am Martinikerkof und wurde um 1550 als Lateinschule errichtet. Mit dem Bau des Stadhuis (Rathauses) wurde 1792 begonnen, nachdem das mittelalterliche Rat- und Weinhaus 1775 abgebrochen worden war. Aber erst 1810 wurde es vollendet. 1872 wurde der bis dahin U-förmige Grundriss zu einem Rechteck geschlossen, wegen des angestiegenen Platzbedarfs. Das Gebäude ist ein Rijksmonument. Die Korenbeurs (ehemalige Kornbörse) an der Stirnseite des Vismarkt (Fischmarktes) ist ein (spät- oder auch neo-)klassizistischer Bau aus den Jahren 1862–1865. Die Reichsuniversität Groningen hat zwei markante Gebäude in der Innenstadt: Das Akademiegebouw entstand, nachdem das vorherige Universitätsgebäude 1906 während Renovierungsarbeiten Feuer fing und abbrannte. Es wurde 1909 vom Reichsbaumeister Johannes Antonius Willibrordus Vrijman entworfen. Sieben Fenster im Treppenhaus schuf Otto Linnemann aus Frankfurt 1909/1914, das mittlere mit der Darstellung der Universitätsgründung, die seitlichen mit den allegorischen Darstellungen der Fakultäten. Unterlagen hierzu befinden sich im Linnemann-Archiv. Das Gebäude ist ein Rijksmonument. Die Universitätsbibliothek Groningen liegt gegenüber dem Akademiegebäude. Groninger Museum: Das 1994 eingeweihte Gebäude wurde zwischen Altstadt und Hauptbahnhof in das Wasser des Zuiderhavens gebaut und ist ein spektakuläres Werk der Moderne. Entworfen wurde es von dem Designer Alessandro Mendini in Zusammenarbeit mit den Architekten Michele De Lucchi, Philippe Starck und Coop Himmelb(l)au. Gezeigt werden neben wechselnden Ausstellungen auch Exponate der Vor- und Frühgeschichte der Provinz Groningen und die sehenswerte Sammlung chinesischen Porzellans. Forum Groningen: Das 2019 fertiggestellte Gebäude, dessen äußere Form an ein Polyeder erinnert, befindet sich mitten in der Altstadt auf einem ebenfalls neu geschaffenen Platz, dem Nieuwe Markt. Es ist als öffentlich zugänglicher kultureller Treffpunkt konzipiert, ähnlich dem Centre Georges-Pompidou in Paris. Von seiner Dachterrasse aus lässt sich die ganze Stadt überblicken. Politik Die letzte Kommunalwahl fand in Groningen am 16. März 2022 statt. Sitzverteilung im Gemeinderat Der Gemeinderat hat 45 Sitze und wird für vier Jahre gewählt. Seit 1982 wird er folgendermaßen gebildet: Anmerkungen Kollegium von Bürgermeister und Beigeordneten Seit dem 30. September 2019 ist Koen Schuiling (VVD) amtierender Bürgermeister der Gemeinde. Nach den Gemeinderatswahlen 2018 wurde eine Koalition aus PvdA, GroenLinks, D66 und ChristenUnie gebildet. Zum Kollegium zählen die Beigeordneten Isabelle Diks (GroenLinks), Roeland van der Schaaf (PvdA), Paul de Rook (D66), Inge Jongman (ChristenUnie), Philip Broeksma (GroenLinks), Carine Bloemhoff (PvdA) und Glimina Chakor (GroenLinks). Das Amt des Gemeindesekretärs wird seit Dezember 2019 von Christien Bronda ausgeübt. Wirtschaft Groningen ist in erster Linie Handels- und Dienstleistungszentrum, blickt aber auch auf eine industrielle Tradition in der Nahrungs- und Genussmittelproduktion. Eines der wirtschaftlichen Standbeine Groningens war die Zuckerrübenverarbeitung. 2008 beschloss der Mutterkonzern der Suiker Unie, Royal Cosun, die Zuckerfabrik an der Van Heemskerckstraat zu schließen. Der Konzern unterhält unter anderen noch eine Fabrik in Hoogkerk. In der Tabakindustrie machte sich das Unternehmen von Theodorus Niemeijer vor allem im 20. Jahrhundert auch außerhalb der Stadt einen Namen. Die noch bestehende Fabrik am Paterswoldseweg wird jetzt von der British American Tobacco Benelux betrieben. Groningen ist Sitz des niederländischen Gashandelsunternehmens Nederlandse Gasunie NV, das 1963 gegründet wurde, als in der Provinz Groningen die Erdgasförderung aufgenommen wurde. Aus den Gasfeldern unter der Provinz Groningen fördert(e) später die Nederlandse Aardolie Maatschappij B.V. (NAM) mit Sitz in Assen. Weil die Förderung Erdbeben auslöste, die Schäden an Gebäuden verursachten, soll sie bis 2022 auf etwa die Hälfte (12 Mrd. m3 pro Jahr) reduziert und bis 2030 eingestellt werden. Am 1. Oktober 2023 sollen die Förderanlagen abgesperrt, als förderbare Reserve noch ein Jahr belassen und ab Oktober 2024 abgebrochen werden. Weitere bekannte Groninger Firmen sind die Destillerie Hooghoudt, die neben alkoholischen Getränken Fruchtsirups herstellt, und der Verlag Noordhoff Uitgevers, der vorwiegend Schulbücher herausgibt. Verkehr Öffentlicher Nahverkehr Groningen hat ein dichtes Stadtbusnetz mit insgesamt 37 Linien (dazu neun Nachtlinien), auf dem Busse jedoch meist im Halbstundentakt (sonntags im Stundentakt) fahren. Viele Buslinien erreichen den Busbahnhof vor dem Bahnhof Groningen. Darüber hinaus ist Groningen Zentrum eines weitläufigen Regionalbusnetzes. Sowohl Stadt- als auch Regionalbusse betreibt das Unternehmen Qbuzz Groningen Drenthe. Alle Groninger Stadt- und Regionalbusse akzeptieren die OV-chipkaart. Gelegenheits-Passagiere kaufen beim Fahrer ein Eurokaartje (ab 2,50 Euro für max. eine Stunde Fahrt über max. zwei Zonen) mit verschiedenen Zeit- und Tarifzonenbeschränkungen. Von 1880 bis 1949 hatte Groningen ein Straßenbahnnetz, das zunächst durch O-Busse und schließlich durch konventionelle Dieselbusse ersetzt wurde. Eine Wiedereinführung der Tram in Form eines Stadtbahnsystems mit zwei Linien war bis Ende 2012 in Planung und wurde dann aufgegeben. Fahrrad Nach einer Untersuchung des Verkehrsclub Österreich VCÖ aus dem Jahre 2013 gehört Groningen zu den fahrradfreundlichsten Städten Europas, was den Anteil des Fahrrads am Alltagsverkehr betrifft. Etwa 31 % der Wege der Einwohner werden hier mit dem Rad zurückgelegt, nur in Houten (44 %), Oldenburg (43 %), Münster (38 %), Kopenhagen (35 %) und Leiden (33 %) wird mehr Fahrrad gefahren. Streetfilms hat Groningen 2013 zur Welt-Fahrradstadt erklärt und in einem englischsprachigen Video Eindrücke zum Verkehrsgeschehen, Hintergründe zur besonderen Attraktivität des Fahrradverkehrs und Stimmen von Nutzern zusammengestellt. Das Fahrrad ist wegen bewusst geplanter Einschränkungen für den Autoverkehr – besonders im Stadtkern, aber auch in anderen Quell-Ziel-Verbindungen – deutlich zeitschneller als das Auto und der Bus. So gibt es spezielle Brücken für Fußgänger und Radfahrer über einen vielbefahrenen Kanal; Autos müssen an einer Drehbrücke bis zu zehn Minuten auf passierende Schiffe warten. An einigen größeren Kreuzungen lässt die Ampelschaltung das zeitgleiche Befahren der Kreuzung des Radverkehrs in alle Richtungen zu. In einem Interview im Mai 2016 mit der Wochenzeitung Die Zeit sprach Verkehrsdezernent Paul de Rook von einem Radverkehrsanteil von 60 Prozent und davon, dass eine weitere Erhöhung angestrebt wird. Straßenverkehr Das eigentliche Stadtzentrum um den Großen Markt und Fischmarkt ist gänzlich autofrei, das äußere Zentrum ist in vier Sektoren unterteilt. Direkter Autoverkehr zwischen den Sektoren untereinander ist nicht möglich. Die Stadt ist umgeben von einem vierspurigen Ringweg, sowohl zur Anbindung der Außenbezirke als auch der Fernstraßen. Seit einigen Jahren wird daran gearbeitet, alle Anschlüsse ampelfrei auszuführen, mit dem Abschluss der Arbeiten wird 2024 gerechnet, dann soll auch der Südring fertiggestellt sein. In Ost-West-Richtung verläuft die Autobahn 7 und in Nord-Süd-Richtung die A 28. Wasserstraßen In Groningen treffen bedeutende Binnenwasserwege aufeinander. Von Westen (Friesland/Amsterdam) der Van Starkenborghkanaal, von Osten (Delfzijl und Mündung der Ems) der Eemskanaal, vom Südosten das Winschoterdiep und der Nord-Willemskanal aus dem Süden. Die erste Kanalverbindung zur Ems wurde schon im Mittelalter geschaffen und im 15. Jahrhundert zum Damsterdiep ausgebaut, das heute nur noch von Freizeitschiffern befahren wird. Während im Mittelalter die Hunze durch die Stadt bzw. entlang der Stadtmauer nordwestwärts zum Reitdiep und damit zur Lauwers floss, liegt Groningen heute auf der Wasserscheide zwischen Lauwers und Ems. Zwei Schleusen an der südwestlichen und der südöstlichen Ecke der Innenstadt und eine dritte am nordwestlichen Stadtrand trennen die Stromgebiete voneinander. Das Wasser aus der Hunze (durch das Winschoterdiep) und dem Nord-Willemskanal (Einzugsgebiet der Drentsche Aa) fließt durch den Eemskanaal nach Delfzijl an der Unterems. Eisenbahnverkehr Der Bahnhof Groningen liegt an der Eisenbahnstrecke von Leeuwarden nach Deutschland (Ost-West-Verbindung, Bahnstrecke Leer–Groningen) und Richtung Süden über Assen nach Meppel (Nord-Süd-Verbindung, Bahnstrecke Meppel–Groningen). Außerdem zweigen Richtung Norden zwei Nebenstrecken ab; die eine führt nach Delfzijl und die andere nach Eemshaven (Bahnstrecke Groningen–Delfzijl und Bahnstrecke Groningen–Eemshaven). Flugverkehr Groningen verfügt über einen Verkehrsflughafen, den Groningen Airport Eelde, südlich der Stadt bei Eelde gelegen. Bildung In Groningen leben insgesamt mehr als 50.000 Studierende. Die Rijksuniversiteit Groningen (RUG) blickt auf eine vierhundertjährige Geschichte als Forschungs- und Lehrstätte zurück (gegründet 1614). Die Universität ist in neun Fakultäten untergliedert: Theologie, Philosophie, Medizin, Mathematik und Naturwissenschaften, Jura, Sprach- und Literaturwissenschaft, Sozialwissenschaften, Wirtschaftswissenschaften und Raumplanung. Außerdem gibt es in Groningen die staatliche Hanze University Groningen, University of Applied Sciences (niederländisch: Hanzehogeschool). Dabei handelt es sich um keine Universität im deutschen Sinn, sondern um eine HBO, die etwa mit einer deutschen Fachhochschule vergleichbar ist. Die Hanze University of Applied Sciences führt ihr Gründungsjahr auf 1798 zurück. In diesem Jahr wurde die erste Kunstakademie Minerva eröffnet. Die Hochschule bietet ihren mehr als 25.000 Studenten 70 verschiedene Master- und Bachelorstudiengänge sowie Kursangebote des internen gewerblichen Dienstleisters HanzeConnect. Studiengänge gibt es in den Fachrichtungen Wirtschaft und Management, Technik, Gesundheit und Sport, Sozialwesen, Kunst, Musik und Tanz an insgesamt an 19 verschiedenen Fakultäten. Der Asteroid (12652) Groningen trägt den Namen der Stadt. Regelmäßige Veranstaltungen Theaterfestival „Noorderzon“: das Theaterfestival lockt jährlich Tausende von Besuchern an Popfestival „Eurosonic Noorderslag“: findet jedes Jahr in Groningen statt und besteht aus einer Musikkonferenz und dem Showcase-Festival für Europäische Musik, außerdem werden einige Preise vergeben. Kultur und Freizeit In Groningen gibt es mehrere Museen. Neben dem Groninger Museum sind dies das „Noordelijke Scheepvaartmuseum“ und das „Universiteitsmuseum“. Das „Nederlandse Stripmuseum“, ein Comic-Museum, wurde nach fünfzehn Jahren im März 2019 geschlossen. Nachfolger ist „Storyworld“, das sich im Forum Groningen befindet. Das „Oosterpoort“ ist eine große Konzerthalle, die „Stadsschouwburg“ beherbergt das städtische Theater. Die Discotheken der Stadt befinden sich am Grote Markt und in der Poelestraat. Das Holland Casino betreibt hier eine seiner zwölf Filialen. Medien Aus Groningen sendet die regionale Rundfunkanstalt RTV Noord, bestehend aus Radio Noord und dem täglich halbstündigen TV Noord. Die größte Tageszeitung von Groningen ist das Dagblad van het Noorden. Sport Die Stadt Groningen wird im niederländischen Fußball durch den FC Groningen vertreten. Die erste Fußball-Herrenmannschaft spielt in der höchsten niederländischen Spielklasse, der Eredivisie. Der FC Groningen trägt seine Heimspiele im heimischen Stadion Noordlease Stadion aus. Der Studentensportverein UC Face Off wurde 1998 als einer der ersten Unihockeyvereine der Niederlande gegründet. Auch American Football wird in Groningen gespielt. Die im Jahre 2000 gegründeten Groningen Giants tragen ihre Heimspiele im Sportpark Corpus den Hoorn aus, seit 2016 in der höchsten Spielklasse, der Eredivisie. Zur Saison 2018 wurde entschieden, in die Eerste Divisie (2. Liga) zurückzukehren, um wieder um die Meisterschaft mitspielen zu können. 2011 und 2012 fand im Rahmen der Motorrad-Langbahnweltmeisterschaft auf der 1100 m langen Trabrenn-Sandbahn im Stadtpark von Groningen der Langbahn-WM Grand Prix der Niederlande statt. Persönlichkeiten Söhne und Töchter der Stadt Jacob Canter (1469–1529), Pfarrer, Dichter und Humanist Roche Braziliano (1630–1671), Pirat Elisabeth Charlotte von Holzappel (1640–1707), Fürstin von Nassau-Schaumburg Willem Surenhuys (um 1664 – 1729), Hebraist Tiberius Hemsterhuis (1685–1766), Philologe Jan Albert Sichterman (1692–1764), Seemann und Sammler Daniel Bernoulli (1700–1782), Schweizer Mathematiker Elisabeth Geertruida Wassenbergh (1729–1781), Genremalerin Matthias Steevens van Geuns (1735–1817), Mediziner und Botaniker Etta Palm d’Aelders (1743–1799), Feministin während der Französischen Revolution Karl August von Schaeffer (1745–1827), preußischer Generalmajor John Goodricke (1764–1786), englischer Astronom Albarta ten Oever (1772–1854), Malerin und Zeichnerin Petrus Gobbels (~1782–1856), Maler Theodorus van Swinderen (1784–1851), Naturwissenschafter und Zoologe Herman de Ranitz (1794–1846), Bürgermeister von Groningen Theodorus Niemeijer (1822–1910), Kaufmann und Tabakfabrikant Jozef Israëls (1824–1911), Maler Hendrik Willem Mesdag (1831–1915), Marinemaler Adrien Jean Madiol (1845–1927), Genremaler Josue Jean Philippe Valeton der Jüngere (1848–1912), Theologe und Orientalist Johan d’Aulnis de Bourouill (1850–1930), Ökonom Heike Kamerlingh Onnes (1853–1926), Physiker und Nobelpreisträger Johan Frans van Bemmelen (1859–1956), Paläontologe und Zoologe Dirk Bos (1862–1916), Lehrer, Privatbankier und Politiker Gerrit van Houten (1866–1934), Landschaftsmaler, Aquarellist und Zeichner Felix Ortt (1866–1959), Bauingenieur, Autor und christlicher Anarchist Jantine Tammes (1871–1947), Botanikerin Johan Huizinga (1872–1945), Historiker Wilhelm Eduard Ringer (1874–1953), physiologischer Chemiker und Hochschullehrer Antoon Gerard Roos (1877–1953), klassischer Altphilologe und Althistoriker Jaap Kunst (1891–1960), Musikethnologe Ben Ali Libi (eigentlich Michel Velleman; 1895–1943), Zauberkünstler Jaap Bulder (1896–1979), Fußballspieler Nico Rost (1896–1967), Antifaschist, Schriftsteller und Journalist Herman Nankman (1897–1973), Radrennfahrer Louis de Vries (1905–1935), Jazzmusiker Jean Henri Pierre Jonxis (1907–1995), Pädiater und Hochschullehrer Leonard Barend Willem Jongkees (1912–2002), Hals-Nasen-Ohren-Arzt und Hochschullehrer Cornelius H. Edskes (1925–2015), Orgelforscher und -sachverständiger Willem Hendrik Crouwel (1928–2019), Grafiker, Maler, Hochschullehrer und Museumsdirektor Maarten Schmidt (1929–2022), Astronom Dirk Bolt (1930–2020), Architekt und Stadtplaner Jenne Meinema (1931–2020), Jazz- und Unterhaltungsmusiker Arnold H. Bouma (1932–2011), Geologe Lammert Leertouwer (* 1932), Kirchenhistoriker und reformierter Theologe John Engels (* 1935), Jazzmusiker Koosje van Voorn (1935–2018), Schwimmerin Piet Fransen (1936–2015), Fußballspieler Andries van Dam (* 1938), Informatiker Bernhardt Edskes (1940–2022), niederländisch-schweizerischer Organist, Orgelsachverständiger und Orgelbauer in Wohlen Klaas de Boer (1941–2022), Astronom, Astrophysiker, Hochschullehrer Coosje van Bruggen (1942–2009), niederländisch-amerikanische Bildhauerin, Kunsthistorikerin und Kunstkritikerin Corrie Winkel (* 1944), Schwimmerin Nico Been (* 1945), Radrennfahrer Herman van Dijk (* 1947), Ökonometriker Herman Franke (1948–2010), Kriminologe und Schriftsteller Tineke Looijenga (* 1948), Philologin, Linguistin der Historischen Sprachwissenschaften und Runologin Lex Jasper (* 1949), Jazzmusiker Dick Nanninga (1949–2015), Fußballspieler Jan Marinus Wiersma (* 1951), Politiker Stef Tuinstra (* 1954), Organist, Orgelsachverständiger und Autor Bert Meijer (* 1955), Chemiker und Hochschullehrer Arjen Lenstra (* 1956), Mathematiker Louwrens Langevoort (* 1957), Intendant Barend Joannes ter Haar (* 1958), Sinologe Edwin Paul Wieringa (* 1964), Islamwissenschaftler Bastiaan van Apeldoorn (* 1970), Politikwissenschaftler und Politiker Tjapko Poppens (* 1970), Politiker (VVD) Stephan Veen (* 1970), Hockeyspieler Hayo Boerema (* 1972), Organist Annemiek de Haan (* 1981), Ruderin Rutger Smith (* 1981), Leichtathlet Rien Schuurhuis (* 1982), Radrennfahrer Henk Nijboer (* 1983), Politiker Arnold Kruiswijk (* 1984), Fußballspieler Sophie Polkamp (* 1984), Hockeyspielerin Arjen Robben (* 1984), Fußballspieler Ben Woldring (* 1985), IT-Unternehmer Ben van Gelder (* 1988), Jazzmusiker Julia Soek (* 1990), Radrennfahrerin Leandro Bacuna (* 1991), Fußballspieler Lois Abbingh (* 1992), Handballspielerin Niels Lootsma (* 1994), Tennisspieler Jerry St. Juste (* 1996), Fußballspieler Suzanne Schulting (* 1997), Shorttrackerin Jordan Teze (* 1999), Fußballspieler Thijs Dallinga (* 2000), Fußballspieler Daan Reiziger (* 2001), Fußballspieler Sofie Dokter (* 2002), Leichtathletin Fodé Fofana (* 2002), Fußballspieler Thijmen Blokzijl (* 2005), Fußballspieler Persönlichkeiten mit Beziehung zur Stadt Johannes Corputius (gestorben 1611 in Groningen), Kartograf, Militär und zuletzt Hauptmann in Groningen. Sein Epitaph befindet sich in der Martinikirche. Ubbo Emmius (gestorben 1625 in Groningen), Pastor, Historiker, Pädagoge und erster Rektor der Universität Groningen Johann Heinrich Alting (1583–1644), seit 1627 Professor der Theologie in Groningen, gestorben in Groningen Carl von Rabenhaupt (1602–1675), Feldherr bei „Gronings ontzet“ und Bürgermeister von Groningen Aletta Jacobs (1854–1929), studierte ab 1871 in Groningen Medizin und wurde die erste Ärztin der Niederlande; zudem war sie als Frauenrechtlerin aktiv. Albert Egges van Giffen (1884–1973), Archäologe Frits Zernike (1888–1966), Professor an der Universität Groningen von 1920 bis 1958, erhielt 1953 den Nobelpreis für Physik für die Erfindung des Phasenkontrastmikroskops Ben Feringa (geb. 1951), Professor an der Universität Groningen seit 1988, erhielt 2016 den geteilten Nobelpreis für Chemie für sein in Groningen entwickeltes „Nano-Auto“ Städtepartnerschaften Groningen unterhält mit folgenden Städten Partnerschaften: Stedenbanden San Carlos, Nicaragua, seit 1986 Murmansk, Russland, seit 1989 Partnersteden Bremen, Deutschland Hamburg, Deutschland Oldenburg, Deutschland Odense, Dänemark Kaliningrad, Russland Tallinn, Estland, seit 1993 Zlín, Tschechien, seit 1996 Newcastle upon Tyne, Vereinigtes Königreich Graz, Österreich, seit 1964 Tianjin, Volksrepublik China, seit 1986 Xi’an, Volksrepublik China, seit 2011 Kattowitz, Polen Literatur in der Reihenfolge des Erscheinens Johann Gottfried Hoche: Reise durch Osnabrück und Niedermünster in das Saterland, Ostfriesland und Gröningen. Von J. G. Hoche, Doktor der Philosophie und Prediger in Rödinghausen in der Grafschaft Ravensberg, und Mitglied der Königl. litterarischen Gesellschaft in Halberstadt, Bremen, bei Friedrich Wilmans, 1800. Darin Reise durch Gröningen nach Westphalen zurück, S. 329–403, bes. S. 368–403 - Repr. Verlag Theodor Schuster, Leer, 1977 ISBN 3-7963-0137-1), 1978, ISBN 978-3-7963-0137-7. (Volltext) Arent Toncko Schuitema Meijer: Groningen vroeger en nu. Fibula-Van Dishoeck, Bussum 1969. Thomas Schumacher (Hrsg.): Grenzenlos an Deich und Dollart. Das Reise- und Lesebuch für die Ems-Dollart-Region. Edition Temmen, Bremen 2003. ISBN 3-86108-903-3. Maarten Duijvendak, Bart de Vries (Hrsg.): Stad van het Noorden. Groningen in de twintigste eeuw (= Groninger historische reeks, Bd. 25). Koninklijke Van Gorcum, Assen 2003, ISBN 90-232-3984-9. Wolfgang Stelljes: Groningen. Die junge Kulturstadt. Edition Temmen, Bremen 2012. ISBN 978-3-8378-3004-0. Weblinks Website der Gemeinde Groningen (deutsch, niederländisch, englisch) Touristische Website der Stadt und Provinz Groningen (deutsch, mehrsprachig) Stadtführungen mit deutschen Studenten (deutsch) Website des Groninger Museum (deutsch, niederländisch, englisch) Nützliche und aktuelle Infos aus Groningen (deutsch) Einzelnachweise Gemeinde in der Provinz Groningen Hansestadt Niederländische Provinzhauptstadt Reichsstadt Ort in der Provinz Groningen Hochschul- oder Universitätsstadt in den Niederlanden Stadt in den Niederlanden Stadt als Namensgeber für einen Asteroiden
Q749
204.152379
6576
https://de.wikipedia.org/wiki/1554
1554
Ereignisse Politik und Weltgeschehen Heiliges Römisches Reich Der Naumburger Vertrag vom 24. Februar zwischen Kurfürst August I. von Sachsen und den sächsischen Herzögen Johann Friedrich II. der Mittlere, Johann Wilhelm und Johann Friedrich III. regelte die Aufteilung der Länder des Gesamthauses Wettin auf die beiden Linien der Albertiner und Ernestiner neu. 25. Februar: Aus Misstrauen gegenüber seinem Sohn Maximilian, der Sympathien für den Protestantismus erkennen lässt, erlässt der österreichische Erzherzog Ferdinand I. die Ferdinandeische Hausordnung, mit der die habsburgischen Erblande unter seinen Söhnen Maximilian, Ferdinand und Karl aufgeteilt werden. Die Stadt Schweinfurt in Franken wird im sogenannten Markgräfler Krieg zum zweiten Mal in ihrer Geschichte zerstört. England / Spanien Januar: Nachdem Hochzeitspläne Maria I. von England mit Philipp von Spanien publik werden, sammelt Thomas Wyatt Truppen, um entweder die im Tower of London inhaftierte Jane Grey neuerlich auf den Thron zu bringen oder Edward Courtenay, 1. Earl of Devon, nach einer Heirat mit Elisabeth, der jüngeren Tochter Heinrichs VIII., zum englischen König zu machen. Die Armee wird vor den Toren Londons besiegt, die Verschwörer gefangen genommen. 12. Februar: Lady Jane Grey wird nach der Aufdeckung der Wyatt-Verschwörung ebenso wie ihr Mann Guilford Dudley und ihr Vater Henry Grey, 1. Herzog von Suffolk, hingerichtet. 25. Juli: Hochzeit zwischen Königin Maria I. von England und dem späteren König Philipp II. von Spanien in Winchester. Durch die Heirat soll die Rekatholisierung in England vorangetrieben werden. Schottland April: Königinmutter Marie de Guise zwingt James Hamilton, 2. Earl of Arran, der seit 1543 die Regentschaft für die minderjährige Maria Stuart in Schottland geführt hat, zur Abdankung, und übernimmt selbst die Regentschaft für ihre Tochter. Amerikanische Kolonien 25. Januar: Die Missionare Manuel da Nobrega und José de Anchieta gründen in Brasilien anlässlich des Festes von Pauli Bekehrung ein Jesuitenkolleg, aus dem sich mit den Jahren die Stadt São Paulo entwickelt. Wissenschaft und Technik Giovanni Battista Benedetti veröffentlicht in Venedig das Werk Demonstratio proportionum motuum localium contra Aristotilem et omnes philosophos, in dem er mit einem Gedankenexperiment die irrige Hypothese des Aristoteles widerlegt, dass verschieden schwere Körper verschieden schnell fallen. Heinrich von Witzleben gründet die Klosterschule Roßleben im Augustinerkloster bei Roßleben. Der englische Offizier Hugh Willoughby kommt mit seiner gesamten Expedition auf der Suche nach der Nordostpassage ums Leben. Schwazer Bergbuch, illuminierte Handschrift, eine frühneuzeitliche Sammlung bergbaukundlicher Texte zur Vorbereitung einer als „Bergsynode“ (1557) bezeichneten Versammlung der am Tiroler Bergbau Beteiligten. Kultur 1. Februar: Die Gründung der Dülkener Narrenakademie erfolgt aus Spott über die Geistlichkeit und die übertriebene Wichtigkeit der Gelehrten. Ab 1556 ist die Narrenmühle in Dülken Sitz der Narrenakademie. In Straßburg erscheint der Roman Jungen Knaben Spiegel. Ein schön Kurzwyligs Büchlein, Von zweyen Jungen Knaben, Einer eines Ritters, Der ander eines bauwren Son von Jörg Wickram. In Konstantinopel eröffnet – gegen den Widerstand des islamischen Klerus – das erste europäische Kaffeehaus. Katastrophen Eindhoven wird Opfer eines großen Brandes. Eine Flotte spanischer Galeonen sinkt in einem Sturm bei den Florida Keys vor der Küste Floridas. Geboren Geburtsdatum gesichert 1. Januar: Ludwig, Herzog von Württemberg († 1593) 9. Januar: Alessandro Ludovisi, Papst unter dem Namen Gregor XV. († 1623) 20. Januar: Sebastian I., König von Portugal aus dem Hause Avis († 1578) 27. Februar: Giovanni Battista Paggi, italienischer Kunstschriftsteller und Maler († 1627) 12. März: Johannes Andreae, deutscher Pfarrer und Theologe († 1601) 22. März: Catherine de Parthenay, französische Mathematikerin († 1631) 26. März: Charles II. de Lorraine, Herzog von Mayenne († 1611) 27. März: Eberhard Bronchorst, niederländischer Rechtswissenschaftler († 1627) 28. März: Iwan Iwanowitsch, russischer Thronfolger († 1581) 15. April: Simon VI., Graf zur Lippe († 1613) 5. Juni: Benedetto Giustiniani, genuesischer Patrizier und Kardinal der Römischen Kirche († 1621) 5. Juli: Elisabeth von Österreich, Königin von Frankreich († 1592) 22. August: Eleonora von Zimmern, deutsche Adelige († 1606) 1. Oktober: Leonhardus Lessius, jesuitischer Moraltheologe († 1623) 3. Oktober: Fulke Greville, 1. Baron Brooke, englischer Staatsmann und Schriftsteller († 1628) 10./11. Oktober: Arnold II. (IV.), Graf von Bentheim-Tecklenburg († 1606) 20. Oktober: Bálint Balassa, ungarischer Dichter († 1594) 23. Oktober: Georg Limnäus, deutscher Mathematiker, Astronom und Bibliothekar († 1611) 30. November: Philip Sidney, englischer Höfling, Soldat und Schriftsteller († 1586) 2. Dezember: William Paddy, königlicher Arzt in England († 1634) 17. Dezember: Ernst von Bayern, Erzbischof von Köln († 1612) 19. Dezember: Philipp Wilhelm von Oranien-Nassau, Fürst von Oranien und Graf von Nassau († 1618) Genaues Geburtsdatum unbekannt März: Richard Hooker, englischer anglikanischer Theologe († 1600) Tüsiyetü Khan Abdai, Fürst der Khalka-Mongolen und ein Dschingiside († 1588) Diane d’Andouins, französische Adelige und Mätresse des französischen Königs Heinrich IV. († 1620) Sebastian von Bergen, Jurist und Staatsmann († 1623) Jan Brandt, polnischer Theologe und Komponist († 1602) Augustin Cranach, deutscher Maler († 1595) Jean Errard de Bar-le-Duc, französischer Mathematiker, Ingenieur und Festungsbaumeister († 1610) Jacques de Lévis, comte de Caylus, französischer Adeliger, Seneschall von Rouergue und Teilnehmer am Duell der Mignons († 1578) Johannes Neldel, deutscher Rhetoriker, Logiker, Rechtswissenschaftler und Philosoph († 1612) Hieronymus Nymmann, deutscher Mediziner († 1594) Walter Raleigh, englischer Freibeuter († 1618) Francis Throckmorton, Verschwörer gegen Elizabeth I. von England († 1584) Gestorben Januar bis Mai 2. Januar: Johann Manuel von Portugal, portugiesischer Thronfolger (* 1537) 16. Januar: Ambrosius Moibanus, deutscher Humanist, evangelischer Theologe und Reformator (* 1494) 16. Januar: Christiern Pedersen, dänischer Humanist und Schriftsteller (* 1480) 6. Februar: Arnold von Bruck, franko-flämischer Komponist, Kapellmeister und Kleriker (* um 1490) 12. Februar: Guildford Dudley, englischer Adeliger und Verschwörer, Ehemann Jane Greys (* um 1535) 12. Februar: Jane Grey, Königin von England (* 1537) 17. Februar: Johann Ghogreff, deutscher Humanist und Kanzler von Jülich-Kleve-Berg (* um 1499) 21. Februar: Hieronymus Bock, saarländischer Botaniker, lutherischer Prediger und Arzt (* 1498) 21. Februar: Sibylle von Jülich-Kleve-Berg, Kurfürstin von Sachsen (* 1512) 23. Februar: Henry Grey, 1. Duke of Suffolk, englischer Adeliger und Verschwörer, Vater Jane Greys (* 1517) 1. März: Christoph Ering, deutscher Theologe und Reformator (* 1491) 3. März: Johann Friedrich I., Kurfürst und Herzog von Sachsen (* 1503) 2. April: Gottfried Werner von Zimmern, deutscher Adeliger (* 1484) 11. April: William Thomas, englischer Gelehrter und Verschwörer 11. April: Thomas Wyatt, englischer Adeliger und Rebell (* 1521) 18. April: David Lyndsay, schottischer Dichter (* um 1490) 23. April: Gaspara Stampa, italienische Dichterin (* um 1523) 4. Mai: Johann Eck, deutscher evangelischer Theologe und Reformator (* um 1494) 19. Mai: Heinrich IV. von Plauen, Oberstkanzler von Böhmen, Burggraf von Meißen, Herr von Plauen, Gera, Greiz, Schleiz und Lobenstein (* 1510) 21. Mai: Juan de Saavedra, spanischer Konquistador 31. Mai: Marcantonio Trevisan, 80. Doge von Venedig (* 1475) Juni bis Dezember 6. Juni: Hieronymus Schurff, deutscher Jurist (* 1481) 19. Juni: Sixtus Birck, deutscher Dramatiker (* 1501) 19. Juni: Philipp II., Graf von Nassau-Saarbrücken (* 1509) 28. Juni: Leone Strozzi, italienischer Malteserritter, Diplomat in Konstantinopel und Admiral der französischen Marine (* 1515) 19. Juli: Sebastian Neidhart, Augsburger Kaufmann (* 1496) 8. August: Theobald Billicanus, deutscher Theologe, Jurist und Reformator (* um 1493) 19. August: Gerolamo Querini, Patriarch von Venedig (* 1468) 22. August: Francisco Vásquez de Coronado, spanischer Konquistador (* 1510) 25. August: Thomas Howard, 3. Duke of Norfolk, englischer Adeliger und Politiker (* 1473) 21. September: Alessandro Campeggi, italienischer Kardinal (* 1504) September: Matthias Apiarius, deutsch-schweizerischer Buchdrucker, Verleger und Komponist 29. Oktober: Rosine von Baden, Gräfin von Haigerloch sowie Freifrau von Ow zu Wachendorf (* 1487) 22. November: Islam Shah Suri, Sultan von Delhi (* um 1510) 25. November: Johann Riebling, deutscher lutherischer Theologe und Reformator (* 1494) Dezember: Alessandro Moretto gen. Moretto da Brescia, italienischer Maler (* um 1498) Genaues Todesdatum unbekannt Hans Gerle, deutscher Lautenist und Komponist (* um 1498) Pedro de Cieza de León, spanischer Konquistador, Chronist und Historiker Perus (* um 1520) John Palsgrave, englischer Gelehrter (* um 1480) Josel von Rosheim (Joselmann Ben Gerschon Loans), Vertreter der jüdischen Gemeinden im Heiligen Römischen Reich Deutscher Nation und in Polen, (* 1476) Hugh Willoughby, englischer Offizier und Expeditionsleiter auf der Suche nach der Nordostpassage Gestorben um 1554 1554 oder 1555: Piri Reis, osmanischer Admiral und Kartograf (* 1465) Weblinks
Q6570
117.98879
4993285
https://de.wikipedia.org/wiki/Bikonta
Bikonta
Der Begriff Bikonta umfasst eine bestimmte Gruppe der Lebewesen mit Zellkern (Eukaryota). Bei allen Bikonta kommen (oder kamen wahrscheinlich ursprünglich) bikonte Zellen vor. Bikonte Zellen sind Zellen mit zwei Geißeln. Zu den Bikonta sollen die großen Gruppen der Archaeplastida (u. a. Rotalgen und Landpflanzen), Excavata (u. a. Euglenozoa mit den bekannten Augentierchen), Rhizaria (u. a. Foraminiferen und Strahlentierchen), Chromalveolata (u. a. Braunalgen, Kieselalgen und Wimpertierchen) und vielleicht (unsicher) auch die flagellaten Apusozoa gehören. Es ist jedoch nicht völlig unumstritten, ob die Bikonta tatsächlich alle von einem letzten gemeinsamen Vorfahren abstammen, ob sie also ein Monophylum bilden. Wegen dieser Unsicherheit wird das Bikonta-Taxon derzeit nicht in der übergreifenden Systematik der Eukaryoten der deutschsprachigen Wikipedia berücksichtigt. Alle übrigen Eukaryota sind keine Bikonta, sondern Unikonta. Zu den Unikonta zählen einerseits die Amoebozoa, die mehrheitlich amöbenartig aussehen, und andererseits die Gruppe der Schubgeißler (Opisthokonta). Die Opisthokonta untergliedern sich weiter, vor allem in die großen Gruppen der Tiere (Animalia) und der Chitinpilze (Echte Pilze, Fungi). Im Gegensatz zum Bikonta- ist das Unikonta-Taxon inzwischen verhältnismäßig gut belegt. Neben der ursprünglichen Anzahl der Geißeln unterscheiden sich Bikonta und Unikonta durch weitere molekularbiologische und zellbiologische Merkmale. Einzelnachweise Alternatives Taxon
Q860203
95.621555
85559
https://de.wikipedia.org/wiki/Apia
Apia
Apia [] ist die Hauptstadt von Samoa. Mit 36.735 Einwohnern (2011) ist Apia die mit Abstand größte und wirtschaftlich bedeutendste Stadt des Landes. Geografie Die Stadt liegt an der Nordküste der Insel Upolu und verfügt über den einzigen Hafen des Landes mit internationaler Bedeutung. Das Klima der Stadt ist wie im gesamten Staatsgebiet tropisch-ozeanisch geprägt, mit einer jährlichen Durchschnittstemperatur von 27 °C. Die Stadt Apia besteht aus 71 ursprünglichen Dörfern, die auch für die Verwaltung zuständig sind. Klima Geschichte Die Geschichte von Apia als dem größten Hafen Samoas ist gleichzeitig die Geschichte der Kanonenbootpolitik im Konflikt um Samoa. Der Zyklon vom 13. bis 17. März 1889 führte zum Verlust von vier der vor Ort befindlichen sechs Kriegsschiffe der Kontrahenten Deutschland und USA im Hafen von Apia. Die beiden anderen konnten auf Strand gesetzt und später geborgen werden. Ebenso sanken auch alle sechs in der Bucht ankernden zivilen Handelsschiffe. Insgesamt verloren über 200 Seeleute ihr Leben, davon 96 von den deutschen und 52 von den US-amerikanischen Kriegsschiffen. Lediglich der britischen HMS Calliope gelang aufgrund ihrer starken Maschine die Flucht vor dem Unwetter auf die offene See. Die Parteien verständigten sich daraufhin in der Berliner Samoa-Konferenz zunächst auf eine friedliche gemeinsame Verwaltung von Samoa unter einem gemeinsam eingesetzten Vertragskönig. Stadtbild Apia hat sich seit den 1990er Jahren von einer Kleinstadt kolonialer Prägung zu einer modernen lebendigen Stadt entwickelt. Das Stadtbild wird von vielen neuen Bauten bestimmt, die den erheblichen wirtschaftlichen Aufschwung Samoas widerspiegeln. So gab es hier die erste Filiale einer amerikanischen Schnellimbisskette in der Südsee. Einkaufspassagen, Banken und Versicherungsgebäude zeigen die Entwicklung ebenso wie eine Vielfalt an Läden, Straßencafés und eine kleine Fußgängerzone. Geldautomaten, Handys und Internetcafés sind überall zu finden; ebenso hat der Autoverkehr stark zugenommen. Die häufig verfallenen Bauten aus der deutschen Kolonialzeit wurden zum größten Teil abgerissen; so z. B. das alte Zollhaus, das einem Parkplatz wich. Die Mulivai-Kathedrale war mit ihrer imposanten weißen Fassade und den beiden wuchtigen Türmen das Wahrzeichen der Stadt Apia. Mit dem Bau der Kathedrale wurde 1885 begonnen. Sie wurde im April 2011 abgerissen. Auf einem Hügel (Mount Vaea) oberhalb der Stadt liegt der Schriftsteller Robert Louis Stevenson begraben. Das für vier Jahre bis zu seinem Tod von ihm bewohnte Haus und Anwesen Vailima ist zum Robert Louis Stevenson Museum ausgebaut worden. Neun Kilometer südlich der Stadt in Tiapatu befindet sich das einzige Haus der Andacht der Bahai in Ozeanien, welches 1984 eingeweiht wurde. Wirtschaft Die Stadt ist das wirtschaftliche und politische Zentrum des Landes. Dort konzentrieren sich alle über den alltäglichen Bedarf hinausgehenden Handelsaktivitäten und Dienstleistungen. Am Rande der Stadt (Vaitele) wurde ein ausgedehntes Industriegebiet etabliert, wo Autozubehörteile (Yazaki Samoa) für den Export nach Australien gefertigt werden, außerdem Getränke (Bier, Erfrischungsgetränke) für den lokalen Markt und den Export. Der einzige internationale Flughafen Samoas ist der 35 km westlich von Apia gelegene Flughafen Faleolo. Tourismus Apia wird des Öfteren von Kreuzfahrtschiffen angelaufen und ist Ausgangspunkt von Touren durch die Insel Upolu. Bildung In Apia befindet sich die National University of Samoa (Iunivesite Aoao O Samoa), eine öffentliche Universität mit circa 3.500 Studenten, die 1984 eröffnet wurde. Außerdem noch das 1924 gegründete Avele College. Weiterhin betreibt Samoa zusammen mit elf weiteren Inselstaaten die University of the South Pacific, dessen Campus sich in Apia befindet (USP Tokelau Campus). Städtepartnerschaften Apia hat Städtepartnerschaften geschlossen mit: Shenzhen, Guangdong, China (2015) Compton, USA (2010) Söhne und Töchter der Stadt Karl Ernst Demandt (1909–1990), deutscher Historiker und Archivar Gustav Angenheister (1917–1991), deutscher Geophysiker Tupua Tamasese Lealofi IV. (1922–1983), Politiker und zweimaliger Premierminister von Samoa Mavis Rivers (1929–1992), Sängerin Albert Wendt, CNZM, ONZ (* 1939), Dichter, Schriftsteller und Universitätsgelehrter Misa Telefoni Retzlaff (* 1952), Politiker, Jurist, Manager und Schriftsteller Robin Leamy (* 1961), US-amerikanischer Schwimmer Maselino Masoe (* 1966), neuseeländischer Profiboxer Brian Lima (* 1972), Rugby-Union-Spieler Jerry Collins (1980–2015), neuseeländischer Rugby-Union-Spieler Pua Magasiva (1980–2019), samoanisch-neuseeländischer Schauspieler und Comedian John Schwalger (* 1983), neuseeländischer Rugby-Union-Spieler Marskrater Nach Apia ist ein Marskrater benannt. Weblinks Historische Karte Einzelnachweise Hauptstadt in Australien und Ozeanien Ort in Samoa Namensgeber für einen Marskrater Upolu Tuamasaga
Q36260
91.486765
162211
https://de.wikipedia.org/wiki/Weiler
Weiler
Ein Weiler ist eine Siedlung, die aus wenigen Gebäuden besteht. Ein Weiler ist kleiner als ein Dorf, aber kompakter als eine Rotte und größer als eine Einzelsiedlung. Weiler waren in der Regel nie politische Einheiten. Bedeutung Etymologie Das Wort Weiler ist im Mittelhochdeutschen in der Form wīler vorhanden und ist die eingedeutschte Form des mittellateinischen (‚Gehöft‘), das auf das Adjektiv (‚zum Landgut gehörig, Landguts-‘) zurückgeht, einer Ableitung vom Substantiv villa (‚Landhaus eines Vornehmen, Landgut, Gutshof‘). Die Bezeichnung Weiler für kleine Ansiedlungen geht auf die Tatsache zurück, dass die nächst den vornehmen Landhäusern erbauten Personalunterkünfte ebenfalls zur villa gerechnet wurden und das Wort letztlich das gesamte Gebäudeensemble benannte. Die im Süden und Westen des deutschen Sprachgebiets verbreiteten Formen -weiler und -wil als Grundwörter von Ortsnamen sind bereits im Althochdeutschen als wīlāri und wīlar vorhanden und gehen ebenfalls auf lateinisch villaris bzw. villa zurück. Entstanden ist diese Bezeichnungsweise durch den Umstand, dass römische Landgüter (villae) von den späteren germanischen Besitzern weiterhin mit dem lateinischen Wort bezeichnet wurden und das Wort so schon in nachrömischer oder althochdeutscher Zeit (ca. 750–1050) eingedeutscht wurde. Sinnverwandte Begriffe Im badischen Raum steht das Wort Zinken für eine kleine Ansammlung von Höfen. Ein typischer Zinken ist beispielsweise der Baden-Badener Stadtteil Gaisbach. Das entsprechende westfälische Wort ist Drubbel. Drubbel liegen vorwiegend in Gegenden mit Streusiedlungen, dazu auch Bauerschaften. Im Bergischen Land wird ein Weiler als Hofschaft bezeichnet. Dabei handelte es sich ursprünglich um Siedlungen für Arbeiter, die in den abgelegenen, durch Wasserkraft betriebenen Hammer- oder Schleifwerken oder Mühlen arbeiteten und nicht täglich den mühsamen Weg von der Stadt zur Arbeit und zurück gehen konnten. Der Weiler als Siedlungsform Ein Weiler hat – im Gegensatz zu einem Dorf – in der Regel keine geschlossene Bebauung und kein Gebäude mit zentraler Funktion wie eine Kirche oder ein Gasthaus. Diese Siedlungsform ist besonders in West- und Süddeutschland, in der Schweiz und in Österreich zu finden. Bildet jedoch – bei gleicher Siedlungsform – die Kirche den Mittelpunkt der Siedlung, so spricht man von einem Kirchweiler, bei einem Schloss von einem Schlossweiler. In der humangeographischen Karteninterpretation spricht man bei bis zu 15 erkennbaren Gebäuden von einem Weiler. Werden Luftbilder interpretiert, lässt man bei der Zählung nach Möglichkeit Ställe, Schuppen und Anbauten außer Acht. In Österreich existiert differenzierend zu Weiler (drei bis neun Gebäude in engerer Lage) und Rotte (Gebäude in lockerer Anordnung ohne Rücksicht auf die Zahl) die topografische Kennzeichnung Zerstreute Häuser: . Geschlossene Orte mit mehr als neun Gebäuden gelten hier als Dorf. Bei nur ein bis zwei Gebäuden ohne Siedlungszusammenhang, also im Falle von Einzelsiedlungen, spricht man, bedeutungsumfänglich gleichgereiht, von Einöde, Einzelhof, Einzelhaus, Einschicht, wobei die Bezeichnung Einschicht, bayerisch wie österreichisch, die Bedeutung Öde, Einsamkeit besitzt. In aller Regel gibt es in Weilern wegen ihrer geringen Größe keine Straßennamen. In diesen Fällen tritt der Ortsname – dann als Ortsteil – oder auch der Hausname an die Stelle des Straßennamens. Die Hausnummern sollten dennoch der räumlichen Anordnung der Gebäude entsprechen, können aber auch ohne erkennbare Ordnung verlaufen. Bisweilen besteht auch eine gemeinsame Hausnummerierung für mehrere solcher kleineren Orte, eventuell auch über das ganze Gemeindegebiet oder größere Teile davon. Es kann aber sein, dass die Straßen benannt werden und die Hausnummerierung auch in einem Weiler nach dieser Straßenbenennung erfolgt, so wie dies bei größeren Orten der Fall ist. Rechtliches Deutschland Regelung der StVO Soweit Ansiedlungen keine geschlossenen Ortschaften im Sinne der Straßenverkehrsordnung (StVO) darstellen, können auf deutschen Straßen solche Orte nicht mit einer Ortstafel gekennzeichnet sein und haben daher kein Tempolimit. Um dennoch den Ortsnamen anzugeben, kann eine Ortshinweistafel verwendet werden. Die Abbildung der einzeiligen Version im Katalog der Verkehrsschilder der StVO ist mit Weiler beschriftet und das Schild wird üblicherweise und nicht-amtlich als Weilerschild bezeichnet. Sonderregelung in Bayern In Bayern gilt gemäß der Entschließung des Bayerischen Staatsministeriums des Innern vom 18. Oktober 1950 grundsätzlich jede Ansiedlung mit drei bis neun Wohngebäuden als Weiler, also eine identische Regelung wie in Österreich. Eine größere Ansiedlung gilt als Dorf, eine Ansiedlung mit einem oder zwei Wohngebäuden wird als Einöde bezeichnet. Österreich In Österreich ist der Begriff Weiler (kurz: W) eine topographische Siedlungskennzeichnung der Statistik Austria für , typischerweise mit historisch gewachsenerer Struktur. Größere Ansammlungen sind dann eine Rotte (R) oder schon ein Dorf (D). Vereinigte Staaten In den Staaten New York und Oregon existiert die Bezeichnung Weiler (engl. Hamlet) für kleine Ansiedlungen, die keine eigene Gemeinde bilden. Hamlets können entweder Teil einer größeren Gemeinde sein (New York), oder auch direkt vom jeweiligen County verwaltet werden (Oregon). Siehe auch Weiler (Ortsname) Ortschaft, Wohnplatz, Hofstelle Honschaft Weblinks Einzelnachweise Siedlungsform
Q5084
752.871727
7095354
https://de.wikipedia.org/wiki/Wolost
Wolost
Eine Wolost () ist eine traditionelle Verwaltungseinheit der Rus von etwa der Größe einer Landgemeinde. Geschichte In der frühen ostslawischen Geschichte war „Wolost“ die Bezeichnung für ein Gebiet, das durch einen Fürsten –, entweder als absoluter Herrscher oder mit unterschiedlichem Grad der Autonomie vom Weliki Knjas (Großfürst) – regiert wurde. Vom Anfang des 14. Jahrhunderts an stand die Bezeichnung „Wolost“ für administrative Einheiten des Großfürstentums Litauen, Polens, des Großfürstentums Moskau und des Zarentums Russland, später im Russischen Kaiserreich als Teil eines Ujesd. Nach der Abschaffung der Leibeigenschaft in Russland im Jahr 1861 wurden Woloste Einheiten der lokalen Selbstverwaltung der Bauern. Die Woloste wurden durch die sowjetische Verwaltungsreform in den Jahren 1923–1929 abgeschafft. Als modernes Äquivalent von Wolost und Ujesd entstanden Dorfsowjets (respektive die durch sie verwalteten Gebiete und Ortschaften) und Rajons („Bezirke“). Heutige Verwendung Nach dem Zerfall der Sowjetunion wurde in der Russischen Föderation der Begriff „Wolost“ zunächst wieder im administrativen System Kareliens verwendet, wo 1994 eine Wepsische Nationalwolost mit den Status eines Rajons eingerichtet, jedoch 2005 wieder aufgelöst wurde. Nach der Munizipalreform in Russland werden „Landgemeinden“ () verschiedener Föderationssubjekte als „Wolost“ bezeichnet, haben dabei einen identischen Status als Teile von Rajons: flächendeckend in der Oblast Pskow, sowie eine einzelne Wolost in der Oblast Kaluga. In anderen Gebieten, wie den Oblasten Samara, Leningrad und Tula, wurde der nach 1990 eingeführte Begriff im Rahmen der Reform wieder abgeschafft. Quelle Wolost auf dic.academic.ru (russisch) Geographie (Russland) Geographie des Mittelalters !Wolost Verwaltungsgliederung Russlands Verwaltungseinheit in Russland Verwaltungsgeschichte (Russland)
Q687121
90.685056
1491847
https://de.wikipedia.org/wiki/Konfuzianismus
Konfuzianismus
Konfuzianismus () ist der Begriff für Philosophien und politische und religiöse Vorstellungen, die sich in die Tradition des Konfuzius und seiner Schüler stellen. Konfuzius’ Schule wird in China auch als Rujia () bezeichnet, was Schule der Gelehrten bedeutet. Der heutige Begriff Konfuzianismus geht auf christliche Missionare zurück, die im 17. Jahrhundert den Namen des Begründers der Schule, (Kongzi / Kongfuzi) latinisierten. Konfuzius wurde von seinen Anhängern als Vorbild und Ideal verehrt, seine moralischen Lehren und eigene Lebensweise als mustergültig angesehen. Der Konfuzianismus gehört neben dem Buddhismus und Daoismus zu den „Drei Lehren“. Er prägt seit vielen Jahrhunderten die chinesische Kultur und Gesellschaft und beeinflusst den Alltag in China, Japan, Korea, Singapur, Vietnam und auf Taiwan. Ab dem 16. Jahrhundert wurden seine Lehren in Europa durch Berichte des Missionars Matteo Ricci bekannt. Im Jahr 1687 folgte die Übersetzung seiner Schriften ins Lateinische durch Pater Prospero Intorcetta. Konfuzius Kǒng Zǐ, „Meister Kung“, Konfuzius wurde 551 v. Chr. in der Stadt Qufu im chinesischen Staat Lu (), in der heutigen Provinz Shandong unter dem Namen Kong Qiu () geboren. Der Sohn eines Heerführers entstammte dem verarmten Adelsgeschlecht der Kong und genoss eine gute Erziehung. Schon früh zeigte er ein großes Interesse an den geistigen Traditionen Chinas. Konfuzius war als Lehrer und Berater tätig, zeitweilig auch als Minister des Staates Lu, und verbrachte lange Jahre im Exil. Ab 496 v. Chr. zog Konfuzius 13 Jahre lang mit seinen Schülern durch die Lande, studierte unter anderem Musik und alte Bräuche. In dieser Zeit soll er auch Laozi getroffen haben, einen weiteren bedeutenden Philosophen des alten China, der als Begründer des Daoismus gilt. Konfuzius starb in seiner Heimat, vermutlich im Jahr 479 v. Chr. Nach seinem Tod erlangte er höchste staatliche Ehren: Der Kaiser besuchte sein Grabmal. Ihm wurden Statuen errichtet. Er erhielt die Würde eines chinesischen Kaisers. Er wurde Gottheiten gleichgestellt. Konfuzius’ Ziel in seinen Lehren war es, die mythologischen und religiösen Wertesysteme des chinesischen Feudalreiches zu erneuern. Als Ausweg aus dem politischen und sozialen Chaos sah er die Rückbesinnung auf die klassischen Tugenden. Andere wichtige Personen Mengzi Mengzi gilt als der „zweite Weise“ des Konfuzianismus. Mengzi meinte, dass Menschenliebe und Gerechtigkeit in der Natur des Menschen lägen. Nur die Umwelt und die Emotionen würden ihn davon entfernen, weswegen die positiven Anlagen kultiviert werden müssten. Xunzi Xunzi setzte seinen Schwerpunkt auf die Lehre des Rituals. Im Gegensatz zu Mengzi sah er den Menschen als von Natur aus schlecht an, weswegen der Mensch diszipliniert werden müsse. Die Lehre Die fünf Konstanten () Die konfuzianische Ethik beruht auf der Vorstellung, dass die Welt von einer Ordnung regiert wird, die in ihrem Wesen moralischer Natur sei. Im Zentrum der Lehre steht der Mensch als Teil der Gesellschaft. Dieser soll nach moralisch-ethischer Vervollkommnung streben und sich hierfür an den fünf Konstanten () bzw. Kardinaltugenden orientieren. Diese sind: Menschlichkeit / Nächstenliebe () Gerechtigkeit / Rechtschaffenheit () Ritueller Anstand / Sittlichkeit (). Gemeint sind nicht Riten im westlichen Sinne, sondern formalisiertes Verhalten, das einen guten Menschen auszeichnet und die Voraussetzung für eine intakte Gesellschaftsordnung bildet; die Riten regeln sämtliche Lebensbereiche, d. h. nicht nur den Umgang und die Arbeit mit anderen Menschen, sondern z. B. auch die Staatsführung und das Verhalten gegenüber unbelebten Dingen. Weisheit () Aufrichtigkeit / Verlässlichkeit () Daraus werden auch die drei sozialen Pflichten abgeleitet: Loyalität () Kindliche Pietät () Wahrung von Anstand und Sitte () Weil Konfuzius’ Meinung nach die Ordnung durch Achtung vor anderen Menschen und Ahnenverehrung erreichbar sei, erhielten Anstand und Sitte sowie kindliche Pietät die wichtigste Stellung im praktischen Leben. Kinder sollen die Ahnenverehrung fortsetzen, weswegen Kinderlosigkeit als großes Unglück gilt. Die Summe aller Tugenden ist die wirkliche Menschlichkeit (chin. 仁 ren). Sie allein zeigt, wer innerhalb der Ordnung loyal, gerecht und ehrlich handelt. Wer dem Anstand und der Sitte entsprechend lebt – also der Etikette, den Riten und der Sitte nach – und sich für die Ahnen aufopfert, verändert sich allein dadurch zum Guten. Das löst einen Dominoeffekt aus, der auf die Mitmenschen und schließlich den gesamten Kosmos wirkt, was die eigentliche Urordnung wiederherstellt. So heißt es in dem Konfuzius zugeschriebenen Da Xue: Verhalte ich mich korrekt, ist die Familie in Harmonie. Wenn die Familien in Harmonie sind, ist es auch das Dorf. Sind die Dörfer in Harmonie, ist es auch die Provinz. Sind die Provinzen in Harmonie, dann ist es auch das Reich. Sind die Reiche in Harmonie, dann ist es auch der Kosmos. Deswegen soll der Mensch in seinem Tun auch stets das Gemeinwesen und das Staatsinteresse im Auge haben. Fünf menschliche Elementarbeziehungen (, Wǔ lún) Fünf elementare menschliche Beziehungen bestimmen die Philosophie des Konfuzius: Vater – Sohn () Herrscher – Untertan () Ehemann – Ehefrau () Älterer Bruder – Jüngerer Bruder () Freund – Freund () Aus konfuzianischer Sicht handelt es sich dabei im Wesentlichen um hierarchische Über- und Unterordnungsverhältnisse. Nur die Freund-Freund-Beziehung kann als eine Beziehung zwischen Gleichrangigen betrachtet werden. Die fünf Beziehungen werden durch die Tugenden der Menschenliebe (), der Rechtschaffenheit () und der Pietät () bestimmt. Pietät bildet die Grundlage für das Familienleben und den Staat. Diese Pietät äußert sich in der Verehrung des Vererbten. Im Gegensatz zur Ehemann-Ehefrau-Beziehung, konnten die anderen Beziehungen auch damals schon geschlechtsübergreifend gesehen werden. Die Frau untersteht drei Gehorsamkeitsbeziehungen: Gehorsam gegenüber dem Vater, solange sie jung ist, Gehorsam gegenüber ihrem Ehemann, wenn sie verheiratet ist, Gehorsam gegenüber ihrem erwachsenen Sohn, wenn sie verwitwet ist. Bedeutung des Studiums Das Studium ist Voraussetzung für das Verständnis der Ordnung des Himmels und der Menschen. Lernen soll man allerdings nur ergänzend zum Denken. Konfuzius sagt also: „Lernen ohne zu denken ist sinnlos; aber denken ohne zu lernen ist gefährlich.“ Die Schriften Als Kanon der konfuzianischen Schriften werden traditionell die Vier Bücher und Fünf Klassiker (四書五經 / 四书五经, Sishu wujing) angesehen. Unter Einbeziehung weiterer Werke sowie in leicht abweichender Ordnung und Zählung ist daneben auch von den Dreizehn Klassikern (十三經 / 十三经, shisan jing) die Rede, deren Textkorpus seit der Song-Zeit die Grundlage für die kaiserlichen Beamtenprüfungen bildete. Die Fünf Klassiker Die Wu jing („Die fünf Klassiker“) gehen – bis auf das Chunqiu – auf die Zeit vor Konfuzius zurück. Sie wurden von ihm vorgefunden und für den Unterricht verwendet. Konfuzius schätzte es, dass sich darin auch Verhaltensregeln finden. Yijing ( – Das Buch der Wandlungen) ist ein Handbuch der Weissagungen, das vermutlich schon vor dem 11. Jahrhundert v. Chr. entstanden ist. Der philosophische Teil, in verschiedenen Anhängen vorhanden, stammt von verschiedenen Kommentatoren. Sie sind die gemeinsame Wurzel aller chinesischen Philosophenschulen. Shijing ( – Das Buch der Lieder) ist eine Auswahl antiker Gedichte. Shangshu (, auch Shujing, – Das Buch der Urkunden) ist eine Sammlung historischer Urkunden. Chunqiu ( – Die Frühlings- und Herbstannalen) ist eine Chronik über die Geschehnisse in Konfuzius’ Heimatstaat Lu vom 8. Jhd. v. Chr. bis ins 5. Jhd. v. Chr. Liji ( – Das Buch der Riten) enthält Verhaltensgrundsätze bei privaten und öffentlichen Ereignissen. Ursprünglich gab es sechs Klassiker. Yue jing (樂經 / 乐经 – Das Buch über Musik und Tanz) ist heute nicht mehr als eigenständiges Buch vorhanden. Eine stark verkürzte und abgewandelte Fassung ist im 19. Kapitel des Buches der Riten enthalten. Konfuzius gilt traditionell als Autor der Frühlings- und Herbstannalen. Die übrigen Klassiker soll er nach überkommenem konfuzianischen Verständnis redigiert und neu zusammengestellt haben. Die Vier Bücher Unter der Bezeichnung Sishu () sind vier kanonische Bücher der konfuzianischen Lehre bekannt, die der Neokonfuzianer Zhu Xi in der Song-Dynastie so zusammenstellte. Sie beinhalten zwei Kapitel aus dem Buch der Riten sowie die Lehrreden des Konfuzius und des Mengzi. Dabei muss beachtet werden, dass Konfuzius selbst – wie Sokrates – selbst keine Lehren niedergeschrieben hat. Seine Lunyu („Gesammelte Worte“) wurden erst von seinen Schülern zusammengestellt, teilweise erst in der Han-Zeit, als der Konfuzianismus zur Staatsphilosophie erhoben wurde. Lunyu () enthält die Lehrgespräche des Konfuzius, wie wir sie heute kennen. Daxue () [im Buch der Riten enthalten] Zhongyong () [im Buch der Riten enthalten] Mengzi () Die Dreizehn Klassiker In der Tang-Zeit wurden unter Kaiser Taizong das Buch der kindlichen Pietät (孝經 Xiaojing) und das Wörterbuch Erya (爾雅 – „Annäherung an das Angemessene“) zu Klassikern erhoben. Unter Berücksichtigung dieser beiden Werke, aber noch ohne das Buch des Mengzi finden sich auf den von Kaiser Wenzong in Auftrag gegebenen Steinstelen insgesamt zwölf kanonische Schriften des Konfuzianismus. Abweichend von den Vier Büchern werden „Das Große Lernen“ sowie „Mitte und Maß“ nicht als eigenständige Werke geführt, stattdessen aber die Riten der Zhou (周禮 Zhouli) sowie Etikette und Riten (儀禮 Yili), die ihrerseits dem Buch der Riten entstammen. Die Frühlings- und Herbstannalen nehmen in der Zählung insgesamt drei Plätze ein, da auch die dazu verfassten Kommentare des Zuo (左傳 Zuozhuan), des Gongyang Gao (公羊傳 Gongyang Zhuan) und des Guliang Shu (穀梁傳 Guliang Zhuan) miteinbezogen werden. Seit der Song-Zeit waren – nun unter Einbeziehung des Mengzi – die Dreizehn Klassiker (十三經 / 十三经, shisan jing) als Kanon etabliert. Anwärter für ein öffentliches Amt mussten, um die kaiserlichen Prüfungen zu bestehen, die darin enthaltenen rund 600.000 Schriftzeichen auswendig lernen. Konfuzianismus als Gesellschaftsmodell und Staatsdoktrin Die in konfuzianischer Tradition stehenden Denker werden in China unter dem Begriff Rujia zusammengefasst und entwickelten Vorstellungen, die den gesamten ostasiatischen Raum bis heute entscheidend prägen. Trotz verschiedener großer Brüche in der Geschichte, wie der legendären Verfolgung der Rujia unter dem chinesischen Kaiser Qin Shihuang im 3. Jahrhundert v. Chr. oder der Verteufelung von Konfuzius durch Mao Zedong im 20. Jahrhundert während der ersten vierzig Jahre der Volksrepublik China, haben die humanistischen und klaren Vorstellungen, die Konfuzius geprägt hatte, durch ständige Neuinterpretation in den Epochen als Basis der Gesellschaftsform gedient und das Ideal von Besonnenheit und Mitgefühl geprägt. Der Konfuzianismus bildete die Staatsdoktrin zahlreicher Dynastien; seit der Han-Dynastie gab es ein umfassendes Prüfungssystem für Beamte, zu dem vor allem die umfassende Kenntnis konfuzianischer Lehren zählte. Infolge der „Bedrohung“ durch andere Weltanschauungen (chin. 教, Pinyin jiào, Lehre, Philosophie, Religion‘) wie Taoismus und Buddhismus entwickelte sich in der Song-Dynastie eine neue Strömung, der Neo-Konfuzianismus des Zhu Xi. Dieser Konfuzianismus tolerierte auch mystische Elemente, obgleich der „Meister“ einst gesagt hatte: „Wenn du das Leben noch nicht kennst, wie sollst du da den Tod verstehen!“ Zhu Xi stellte die Vier Bücher zusammen, die eine wichtige Grundlage für den Neo-Konfuzianismus des zweiten Jahrtausends darstellten. Während die europäische Aufklärung stark auf die Freiheit des einzelnen Individuums abstellt, zielt der Konfuzianismus auf die Rolle jedes Einzelnen im gesamtgesellschaftlichen Beziehungsnetzwerk ab. Die Basis der konfuzianischen Staatstheorie begründet sich auf dem Anspruch der moralischen Vervollkommnung der Gesellschaft. Der Mensch lebt in hierarchisch strukturierten sozialen Geflechten, in denen jede Person eine bestimmte soziale Rolle innehat und sich gemäß dieser verhalten muss. Der Grundbaustein aller sozialen Geflechte ist die Familie, dessen Oberhaupt der Ehemann beziehungsweise Vater ist. Das Verhalten des Familienoberhaupts bestimmt das moralische Verhalten der Familienmitglieder. Der hierarchischen Ordnung der Familie zufolge bringen jüngere Familienmitglieder den Älteren Respekt und Gehorsam entgegen. Ein ebensolches Hierarchieverhältnis besteht auch zwischen der Ehefrau und dem zu ehrenden Ehemann. Die hierarchisch unter der Schutzherrschaft des höhergestellten Familienmitgliedes stehenden Familienmitglieder bringen diesem Ehre, Respekt und Gehorsam entgegen und erfahren im Gegenzug dafür Liebe, Schutz und Leitfunktion des Familienoberhaupts. Konfuzius zufolge bringt jede Stellung in der Gesellschaft Privilegien und Pflichten mit sich, so dass ein fest gegliederter Organismus entsteht, der Struktur und Frieden in der Gesellschaft begründet. Folglich ist für das friedliche Zusammenleben der Menschen in erster Linie notwendig, dass es dem Individuum sowie den Familien gut geht, um darauf aufbauend den Staat in Ordnung zu bringen. Der Staat wird in der konfuzianischen Staatslehre analog zur hierarchischen Struktur der Familie gedacht. Das Staatsoberhaupt verdient sich diese Position durch die besondere moralische Vorbildfunktion, die durch Schutz- und Leitfunktion bewiesen wurde. Im Gegenzug verpflichtet sich das Staatsoberhaupt, beispielsweise mittels Ernährungssicherung und Bildung, ein friedliches Umfeld zu schaffen. Für das Regieren wird auf zwei Mechanismen zurückgegriffen: die moralische Vorbildfunktion des Herrschers und ein System aus Strafen und Anreizen. Die moralische Vorbildfunktion des Herrschers wird dabei klar bevorzugt. Ist der Herrscher gut, so Konfuzius, dann folgen seine Untertanen ihm ohne jede Androhung von Strafe. Wenn er hingegen selbst unmoralisch handelt, wird auch der Staat zwangsläufig in Chaos verfallen. Moralisch zu handeln bedeutet dabei in erster Linie, sich gemäß seinem Platz in der gesellschaftlichen Hierarchie zu verhalten. Gleichzeitig gesteht Konfuzius sich ein, dass nicht alle Menschen allein durch die moralische Vorbildfunktion des Herrschers geführt werden können. Als zusätzliches Regierungsinstrument werden für einen Teil der Bevölkerung daher Anreize und Strafen befürwortet. Diese haben aber einen untergeordneten Stellenwert und sollten soweit möglich durch moralisches Vorbild ersetzt werden. Sie werden auch als weit weniger effektiv angesehen, da die Bevölkerung ohne moralisches Vorbild nur versuchen werde, die Strafen zu vermeiden, ohne den moralischen Grundsatz zu verinnerlichen. Konfuzianismus als Religion Im Konfuzianismus finden sich allgemein verbreitete religiöse Elemente Ostasiens wie die Verwendung des Begriffs Dao und der Ahnenkult. Konfuzianische Elemente sind aber auch in viele Bereiche des gesellschaftlichen Lebens eingedrungen. Der Konfuzianismus ist eine Lehre unter anderen, die sich nicht gegenseitig ausschließen, sondern kombinieren lassen. Institutionell waren die Zentren des Konfuzianismus die Miao, „Konfuzius-Tempel“. Hier wurden der Gründer und seine Schüler rituell verehrt als Schöpfer und Ursprung der Lehre, als Beschützer, von den Angehörigen der Kong-Sippe als mythischer Ahnherr. Einzelne Verehrer des Konfuzius baten hier um das Bestehen von Prüfungen oder gute soziale Beziehungen. Die mit dem Staat verbundenen Tempel richteten oftmals große Rituale für den Hof aus. Zudem waren die Konfuzius-Tempel oft Lehranstalten und Prüfungsinstanzen des ebenfalls ritualisierten kaiserlichen Prüfungssystems. Die Bedeutung des institutionellen Konfuzianismus erhielt einen schweren Schlag durch die Abschaffung des Prüfungssystems und andere Veränderungen der Moderne. Wenngleich der Konfuzianismus immer noch einigen Einfluss ausübt und der Meister weiterhin rituell verehrt wird, wird er doch meist nicht mehr als eigene Religion genannt. Statistiken haben nur einen geringen Aussagewert über die tatsächliche Verbreitung. Im Jahr 1995 wurde der Konfuzianismus in Südkorea zur Religion erklärt und hat dort etwa 10 Millionen Anhänger. In Indonesien gehört der Konfuzianismus zu den fünf offiziell anerkannten Religionen. Kritik Gerade im Westen erscheint die Instrumentalisierung des Konfuzianismus durch autoritäre Regime wie etwa in Singapur bedenklich. Max Weber sah in der konfuzianischen Ethik den Ursprung für Chinas Rückständigkeit während des 19. und frühen 20. Jahrhunderts. Dies war nicht allein die Meinung Webers, sondern wurde von der Mehrheit der chinesischen Intellektuellen am Ende des 19. Jahrhunderts so gesehen. Dies führte dazu, dass man europäische Gesellschaftsformen als überlegen ansah. Da man den Kapitalismus teilweise als rein westliches Phänomen verstand, trug die Suche nach einer zeitgemäßen Gesellschaftsform im frühen 20. Jahrhundert zur Akzeptanz des Kommunismus in China bei, den man für die Gesellschaftsform der Zukunft hielt. Doch auch in früheren Zeiten ist der Konfuzianismus gerade in seinem Ursprungsland China oft stark kritisiert worden. Während der Zeit der Streitenden Reiche geschah dies vor allem von Seiten der Daoisten, Mohisten und natürlich der Legalisten, die dem Konfuzianismus eine übermäßige Betonung des Rituellen vorwarfen. Für Zhuangzi lief die konfuzianische Ethik oftmals auf Heuchelei hinaus. Nach der Reichseinigung und dem Sturz der ersten kaiserlichen Dynastie (Qin) wurde der Konfuzianismus unter den Han Staatsdoktrin und verschmolz mit Elementen des Legalismus zur dominanten Philosophie Chinas. Die Entstehung des Neokonfuzianismus konsolidierte die inzwischen 1400 Jahre alte Lehre endgültig, doch der Konflikt mit den westlichen Mächten und Japan in den letzten 100 Jahren der Qing-Dynastie führte Teilen der chinesischen Bildungselite die Rückständigkeit ihres Landes vor Augen. Zunächst wurde versucht, westliche Technologie mit konfuzianischer Ethik zu verbinden (sogenannte „Selbststärkung“). Während des frühen 20. Jahrhunderts wurden Stimmen unter den Intellektuellen lauter, die die Abschaffung der traditionellen chinesischen Kultur als einziges Mittel zur Rettung des Landes ansahen; für sie war diese Kultur der Grund für Chinas Schwäche, und in erster Linie geriet der Konfuzianismus ins Kreuzfeuer der Kritik. Auch nach der Xinhai-Revolution von 1911 () blieb China Spielball ausländischer Mächte: die 21 Forderungen Japans zeigten Chinas Schwäche genauso wie der Friedensvertrag von Versailles nach dem Ersten Weltkrieg, welche 1919 Chinas Nationalisten erzürnten. Die Bewegung des 4. Mai entstand; ihr Anliegen war die Modernisierung und der erneute Aufstieg Chinas. Das Ziel, China als Nation wieder erstarken zu lassen, konnte nach Ansicht liberaler und linksgerichteter Studenten nur durch die Zerschlagung der eigenen Kultur erreicht werden. - Aberglaube, Ahnenkult und kindliche Pietät galten fortan als gefährliche Relikte der Vergangenheit, als „Müll“, der den Fortschritt der chinesischen Nation unmöglich mache. Kaum 50 Jahre später sollten ihre Forderungen gewissermaßen in die Tat umgesetzt werden – in der Kulturrevolution. Während der Anti-Lin- und Anti-Kong-Kampagne wurde der Konfuzianismus als Relikt des chinesischen Feudalismus (nach marxistischer Theorie) zum Hindernis für den Aufbau einer sozialistischen Gesellschaftsordnung erklärt, wobei allerdings der eigentliche Zweck die Beseitigung politischer Gegner Maos und der damaligen Führer der Kommunistischen Partei Liu Shaoqi, Deng Xiaoping und Peng Zhen war. In der modernen chinesischen Literatur kommt diese Kritik gerade in den Werken Lu Xuns zum Tragen: subtil wird der Konfuzianismus dort als Hemmnis für Chinas Fortschritt angeprangert. Menschliche Beziehungen verkämen im Konfuzianismus zu Entfremdung und „Menschenfresserei“, so in der Kurzgeschichte Tagebuch eines Verrückten. Siehe auch Erziehung in China Einzelbelege Literatur Martina Darga: Konfuzius (Reihe Diederichs Kompakt). Hugendubel, Kreuzlingen 2001, ISBN 3-7205-2193-1. Hans van Ess: Der Konfuzianismus. Beck, München 2003, ISBN 3-406-48006-3. Xuewu Gu: Konfuzius zur Einführung. Junius-Verlag, Hamburg 2002, ISBN 3-88506-361-1. Chun-chieh Huang: Konfuzianismus: Kontinuität und Entwicklung. transcript, Bielefeld 2009, ISBN 978-3-8376-1048-2. Konfuzius: Gespräche. Lun Yü, übersetzt von Richard Wilhelm. Marix-Verlag, Wiesbaden 2005, ISBN 3-86539-008-0. Konfuzius: Gespräche (Lun yu), übersetzt von Ralf Moritz. Reclam, Leipzig und Stuttgart 1982, 2003, ISBN 3-15-059656-4. Konfuzius: Schulgespräche. Gia Yü, übersetzt von Richard Wilhelm. Diederichs, München 1997, ISBN 3-424-00696-3. Eun-Jeung Lee: Anti-Europa. Die Geschichte der Rezeption des Konfuzianismus und der konfuzianischen Gesellschaft seit der frühen Aufklärung. Eine ideengeschichtliche Untersuchung unter besonderer Berücksichtigung der deutschen Entwicklung. Lit-Verlag, Münster 2003, ISBN 3-8258-6206-2 (zugleich Habilitationsschrift, Universität Halle [Saale] 2002). James Legge: The Chinese Classics. SMC Books, Taipeh 1983. 1/2: Confucian analects, ISBN 957-638-039-1. 3: The Sho king, ISBN 957-638-040-5. 4: The She king, ISBN 957-638-041-3. 5: The Ch'un ts'ew, ISBN 957-638-042-1. Gregor Paul: Konfuzius. Herder, Freiburg im Breisgau 2001, ISBN 3-451-05069-2. Heiner Roetz: Konfuzius (Reihe Denker). Beck, München 1995. Dritte Auflage 2006, ISBN 3-406-43929-2. Volker Zotz: Konfuzius. Rowohlt, Reinbek 2000, ISBN 3-499-50555-X. Markus Hattstein: Die Weltreligionen. Tandem, 2005, ISBN 3-8331-1406-1. Louis D. Hayes: Poltical Systems of East Asia. China, Korea and Japan. M. E. Sharpe, New York 2012. A.T. Nuyen: The „Mandate of Heaven“: Mencius and the Divine Command Theory of political Legitimacy. In: Philosophy East & West 63.2 (2013): 113-26. Kung-chuan Hsiao: History of Chinese Political Thought. Band 1: From the Beginnings to the Sixth Century, A.D. Princeton University Press, Berlin und Boston 2015. Weblinks Gregor Paul: Konfuzius und Konfuzianismus. Kommentierte Auswahl-Bibliographie Tilman Spengler: „Ein jeder an seinem Platz“, in: DIE ZEIT, 1. März 2007 Nr. 10. Diakon George Maximov: „Der Konfuzianismus als Religion“. Konfuzius: The Analects. Da Xue, im Chinese Text Project (nach der Ausgabe von James Legge) Philosophische Strömung Chinesische Kultur Koreanische Kultur Kultur (Japan) Kultur (Vietnam) Ethische Theorie Weltreligion
Q9581
603.703025
81531
https://de.wikipedia.org/wiki/Illyrer
Illyrer
Die Illyrer (oder Illyrier) waren eine Gruppe von Stämmen, welche in der Antike auf der westlichen Balkanhalbinsel lebten und die eigene kurzlebige Königreiche und Dynastien hervorbrachten sowie auch zahlreiche Städte gründeten. Das geographische Gebiet bezeichnete die antike griechische und römische Geschichtsschreibung als Illyrien, das die Forschung heute aber nicht als deckungsgleich mit dem Siedlungsraum der illyrischen Sippen sieht. Ob beispielsweise die Stämme der Japoden, Histrier und Liburner auf der nordwestlichen Balkanhalbinsel und diejenigen der Japyger, Messapier, Daunier und Peuketier auf der südöstlichen Apenninhalbinsel (Apulien) „illyrisch“ waren, wird kontrovers diskutiert. Ebenso unklar sind die Beziehungen der Illyrer zu den Thrakern, Phrygern, Kelten und Paioniern im Süden und Osten des Westbalkans; eine Differenzierung, was dort „illyrisch“ war, ist für Forscher eine Herausforderung. Größtes Hindernis sind im Allgemeinen die fehlenden schriftlichen Zeugnisse, weswegen auch die illyrische Sprache weitgehend unbekannt ist, jedoch der indogermanischen Sprachfamilie zugeordnet werden kann. Die interdisziplinäre Wissenschaft, welche sich mit diesen Fragen beschäftigt, wird Illyrologie genannt. Als Illyrismus werden gesellschaftlich-politische Konzepte vor allem unter Albanern und Kroaten in der Moderne genannt, welche die Abstammung ihrer Ethnie auf die Illyrer zurückführen. Der Panillyrismus hingegen beschreibt eine mittlerweile überholte Theorie unter Archäologen und Historikern, wonach die Illyrer Träger der Urnenfelderkultur gewesen seien. Begriffsgeschichte Schon in der Antike wurde der Name Illyrer (, und ) uneinheitlich gebraucht, und die Zahl der Stämme, die von antiken Geografen und Historikern zu ihnen gezählt wurden, wuchs im Zuge der Erkundungsfahrten der Griechen entlang der Adria. Erstmals tauchen die Illyrer bei Hekataios von Milet (5. Jahrhundert v. Chr.) auf, der (in den erhaltenen Fragmenten) die Japyger, Taulantier, Chelidonier, Sesarether und Abrer zu ihnen zählt. Sein weiteres Wissen über diese Stämme ist nicht überliefert. Herodot nennt in seinen Historien (I 96) das Volk der als Nachbarn der Triballer, Dardaner und Makedonen. Diese Lokalisierung macht eine Gleichsetzung mit den oberitalischen Venetern wenig glaubwürdig und hat zu der Annahme geführt, Herodots seien nur ein Stamm der Makedonen. Der Periplus des Pseudo-Skylax (4. Jahrhundert v. Chr.) hat nähere Kenntnis von den Illyrern und scheidet sie in Stämme an der Küste und solche im Hinterland. Zu den ersteren zählt der Verfasser die Buliner, Hyller, Hierastammer, Nestäer, Manier, Encheläer, Taulantier, Oriker und Amantier, zu den letzteren die Autariaten, Atiutaner und Dassareten (oder auch Dexarer genannt). Dass die Japyger in dieser Aufzählung fehlen, lässt sich mit deren Vertreibung durch die Liburner erklären. Die Festlegung der Illyrer als Volk an der Adriaküste auf dem Balkan, deren Nachbarn im Norden die Liburner und im Süden die Chaonier waren, galt im griechischen Kulturraum bis zur Zeit der Eroberung durch die Römer, und noch das Geschichtswerk des Skymnos (2. Jahrhundert v. Chr.) hält es so. In der Römerzeit verwischte sich diese Schärfe. Durch die Eroberung der Balkanhalbinsel und die Einrichtung der Provinz Illyricum beschleunigte sich die unterschiedslose Verwendung des Namens Illyrer. Der römische Historiker Florus zählt die Liburner bereits zu den Illyrern (I 21), Eustathios und Appian (Illyr. 8) die Histrier und Strabon neben diesen die Stämme der Breuni und Genauni in den Alpen (VII 314). Um der Verallgemeinerung entgegenzuwirken, empfehlen Pomponius Mela (II 56) und Plinius der Ältere (in seiner naturalis historia III 144), als Illyer nur die („Illyrer im engeren Sinne“) zu bezeichnen. Damit bezogen sie sich auf die illyrischen Stämme der mittleren italischen Adriaküste. In den Berichten kaiserzeitlicher Autoren sitzen die Illyrer meist zwischen Donau und Save im Norden und Epirus (Südalbanien) im Süden, von der Adria bis ins Hinterland gelten sie als Nachbarn der Thraker. In der ersten Hälfte des 20. Jahrhunderts wurde speziell in der historischen Linguistik und Urgeschichtsforschung des deutschen Sprachraums die Theorie eines Panillyrismus entwickelt. Ausgehend vom Befund, dass sich viele Toponyme nicht dem Keltischen, Lateinischen oder späteren Sprachschichten zurechnen ließen, wurde ein illyrisches Siedlungsgebiet postuliert, das einst nicht nur den Balkan, sondern auch weite Teile Mitteleuropas umfasste. Obwohl diese Theorie in der akademischen Welt bereits Mitte des 20. Jahrhunderts als unhaltbar verworfen wurde, blieb sie in heimatkundlicher Literatur auch im Folgezeitraum wirkmächtig. Geschichte Illyriens Je nach den landschaftlichen Gegebenheiten bildeten Viehzucht oder Ackerbau die ökonomische Basis der eisenzeitlichen Bewohner Illyriens. An der Wende vom 2. zum 1. Jahrtausend v. Chr. dominierten noch die Hirtenkulturen. In den Gebirgsgegenden des westlichen Balkans änderte sich daran wenig, während sich in den Ebenen der Feldbau durchsetzte. Die eisenzeitliche illyrische Gesellschaft war in Sippen- und Familienverbänden gegliedert. Grabfunde belegen beträchtliche soziale Unterschiede. Seit dem 6. Jahrhundert v. Chr. legten Griechen Kolonien im illyrischen Siedlungsgebiet an (unter anderem Epidamnos, Apollonia und Lissos). Durch den nicht immer friedlichen Kontakt mit den griechischen Poleis übernahmen die Illyrer griechische Kulturelemente. Griechische Luxuswaren wurden Prestigegüter der illyrischen Eliten. In den großen und reich ausgestatteten Sippengrabhügeln im Tal des Mat (Nordalbanien) und am Ohridsee fanden sich zahlreiche griechische Importe. Die verstärkten griechischen Einflüsse zeigen sich besonders in der Entstehung und im Ausbau der befestigten Höhensiedlungen zu städtischen Zentralorten (wie Nikaia, Byllis und Berat), was mit bedeutenden Veränderungen in der Wirtschaft und der Gesellschaftsstruktur verbunden war. Städtisches Handwerk und Handel gewannen an Bedeutung und die Illyrer betrieben nun auch Seefahrt an den Küsten der Adria (Handel und Piraterie). Auf der Basis der Städte entstanden seit dem 5. Jahrhundert v. Chr. kleinere Fürstentümer. Es kam auch zu meistens recht kurzlebigen Reichsbildungen. Am südlichen Rand der heutigen nordalbanischen Stadt Shkodra gründeten Illyrer im 4. Jahrhundert v. Chr. auf dem heute von der Burg Rozafa eingenommenen Hügel die Stadt Scodra. Während der Römerzeit dehnte sie sich bis in die Ebene am Fuße des Hügels aus. Für das 4. Jahrhundert v. Chr. gibt es vermehrt schriftliche Nachrichten griechischer Historiker über die Illyrer. Häufig war das Königreich Makedonien in jener Zeit in Kriege mit den Illyrern und den Molossern in Epirus verwickelt. Der makedonische König Perdikkas III. fiel im Jahr 359 v. Chr. im Kampf gegen die Illyrer unter deren König Bardylis. Sein Nachfolger, König Philipp II. (359 bis 336 v. Chr.) konnte die Illyrer entscheidend schlagen. Sie wurden jedoch nicht in das Reich Alexanders des Großen (336 bis 323 v. Chr.) eingegliedert, und im 3. Jahrhundert konnten mehrere illyrische Könige (etwa Glaukias, Agron und die Königin Teuta) bedeutende regionale Herrschaften errichten. Die Illyrer waren zu dieser Zeit auch als Seeräuber berüchtigt. Deshalb unterstellten sich im Jahr 230 v. Chr. einige griechische Kolonien im adriatischen Küstengebiet und auf den vorgelagerten dalmatinischen Inseln dem Schutz Roms. Im anschließenden Ersten Illyrischen Krieg von 229 bis 228 v. Chr. errichteten die Römer einen Brückenkopf an der dalmatinischen Küste. Im Zweiten Illyrischen Krieg (219 v. Chr.) gelangte die Region größtenteils unter römische Herrschaft. Der letzte illyrische König Genthios, der in Scodra (Nordalbanien) residierte, wurde von den Römern 168 v. Chr. besiegt und gefangen nach Rom geführt. Die illyrischen Gebiete wurden in von den Römern abhängige Satellitenstaaten aufgeteilt. Im Verlauf des 1. Jahrhunderts v. Chr. wurde das Gebiet der Illyrer schließlich als Provinz Illyricum in das Imperium eingegliedert. Im Anschluss an den missglückten „Pannonischen Aufstand“ kurz nach der Zeitenwende setzte eine intensive Romanisierung der Städte in Illyrien ein. Mit dem Erreichen der Donaugrenze unter Augustus wurde Illyrien in die beiden Provinzen Illyricum superius und Illyricum inferius geteilt, die später in Dalmatia und Pannonia umbenannt wurden. Die Truppen des spätrömischen Reiches in dieser Region bestanden zu großen Teilen aus romanisierten Illyrern. Mehrere römische Kaiser kamen aus Illyrien, beispielsweise Claudius Gothicus, Aurelian, Probus, Diokletian und Konstantin. Nach der Landnahme der Slawen auf dem Balkan ging die romanisierte illyrische Vorbevölkerung im Laufe weniger Jahrhunderte zum großen Teil in den Südslawen auf oder wurde in entlegene Bergregionen verdrängt. Politische Organisationsformen Viele Quellen berichten von Feldzügen illyrischer Könige wie auch von Bündnissen und Verträgen. Es wurden Münzen von illyrischen Stämmen, Städten und Herrschern geprägt. Man kann daraus schlussfolgern, dass es zu vorrömischer Zeit in Illyrien einige politische Organisationsformen gab. Ab dem frühen 3. Jahrhundert v. Chr. prägten unter anderem die Könige Monunios, Mytilos, Ballaios und Genthios Münzen. Von Letzterem weiß man, dass er von seinen Untertanen regelmäßig Steuern erheben ließ. Man weiß allerdings nichts über ihre religiösen Aktivitäten, nichts über eine Rechtsprechung, auch nichts von einem Versuch, ihre Machtstellung durch eine mythische Genealogie herzuleiten, wie dies bei den benachbarten Molossern und Makedoniern der Fall war. Die einzige Ausnahme bildete die Königsfamilie bei den Encheläern, die ihre Abstammung von Kadmos und Harmonia behauptete. Eindeutiger ist auch das Fehlen von einer dauerhaften Dynastiebildung. Mehrfach wechselt der Oberbefehl über illyrische Heere zwischen Anführern aus verschiedenen Stämmen. Am erfolgreichsten war dabei das Geschlecht des Pleuratos bei den Ardiäern, das sich vom 4. Jahrhundert v. Chr. mit Lücken über Agron und Teuta bis zu Genthios und dessen Eroberung durch Rom nachweisen lässt. Das illyrische Königtum war jedoch nicht von großer Dauer. Als 232 v. Chr. das epirotische Königshaus gestürzt wurde und dadurch die Süd-Illyrer wieder ihre Unabhängigkeit gewannen, richteten sie keine Monarchien, sondern beliebig regierte Koina (Singular Koinon) ein. Als Organe der südillyrischen Koina erscheinen Volksversammlungen und -beschlüsse, Prytanen, Strategen und Demiurgen. Föderative Staaten, wie dies im benachbarten Epirus der Fall war, existierten nicht. Wie aus einem Gedicht des Skymnos bekannt ist, kann man grundsätzlich drei Arten von politischen Organisation unterscheiden: 1. Einige Stämme standen unter der Herrschaft fremder Königreiche (wie Epirus oder Makedonien). 2. Andere Stämme waren monarchisch organisiert, der König regierte über das Stammesgebiet. 3. Wiederum andere Stämme hatten kein Oberhaupt, es existierte eine Art „Anarchie“. Städte Die Urbanisierung Illyriens begann im späten 5. Jahrhundert v. Chr. mit den Stadtanlagen von Amantia, Klos und dem am Butrintsee gelegenen Kalivo und nahm im 4. Jahrhundert v. Chr. mit Byllis, Lissos, Albanopolis/Zgërdhesh und Shkodra einen starken Aufschwung. Politisch genossen sie zwar Selbstverwaltung, bildeten aber keine unabhängigen Stadtstaaten mit eigener Außenpolitik wie die altgriechischen Poleis. In der Verwaltung wurde ausnahmslos Altgriechisch und später Latein benutzt. Siehe auch Illyrios, Stammvater der Illyrer in der altgriechischen Mythologie Nordwestblock, ein Beispiel von Panillyrismus Literatur Hans Krahe: Die Sprache der Illyrier. Wiesbaden 1955. Anton Mayer: Die Sprache der alten Illyrier. In: Schriften der Balkankommission (Linguistische Abteilung). Wien 1957. Hasan Ceka, Selim Islami, Skënder Anamali, Frano Prendi (alb.): Ilirët dhe Iliria. Te autorët antike – Burime të zgjedhura për historinë e Shqiperisë. Band 1, Universiteti Shtetëror i Tiranës, Instituti i Historisë, 1965. Hasan Ceka (alb.): Probleme të numismatikës ilire, Herausgeber: Universiteti Shtetëror i Tiranës, Instituti Histori-Gjuhësi, 1967. Hasan Ceka (fra.): Illyrie. Etudes et materiaux archeologiques, Vol. I., Akademia e Shkencave e RPS të Shqipërisë; Qendra e Kërkimeve Arkeologjike; Universiteti i Tiranēs, Sektori i Arkeologjisë, 1971. Hasan Ceka, Kolë Luka (fra.): Questions de numismatique Illyrienne, avec, un catalogue des monnaies d'Apollonie et de Durrhachium, Universite d'Etat de Tirana, Institut d'Histoire, 1972. Pierre Cabanes (Hrsg.): L’ Illyrie méridionale et l’Epire dans l’antiquité. Actes du colloque international de Clermont-Ferrand (22 – 25 octobre 1984). Clermont-Ferrand 1987. Arne Eggebrecht (Hrsg.): Albanien: Schätze aus dem Land der Skipetaren. Philipp von Zabern, Mainz 1988. Katalog zur Ausstellung im Roemer- und Pelizaeus-Museum Hildesheim vom 18. Juli bis 20. November 1988. ISBN 3-8053-0978-3 (Inhaltsverzeichnis). Hansjörg Frommer: Die Illyrer. 4000 Jahre europäischer Geschichte. Vom 3. Jahrtausend bis zum Beginn der Neuzeit. Karlsruhe 1988. ISBN 3-88190-100-0. Pierre Cabanes: Les Illyriens de Bardylis à Genthios (IVe – IIe siècles avant J.-C.). (= Regards sur l'histoire. 65). Paris 1988. ISBN 2-7181-3841-6. Pierre Cabanes: Grecs et illyriens dans les inscriptions en langue grecque d'Epidamne-Dyrrhachion et d'Apollonia d'Illyrie, ISBN 2-86538-241-9, 1989. Hermann Parzinger: Archäologisches zur Frage der Illyrier. In: Bericht der römisch-germanischen Kommission, Band 72, 1991, S. 205–261. Pierre Cabanes (Hrsg.): Grecs et Illyriens dans les inscriptions en langue grecque d'Epidamne-Dyrrhachion et d'Apollonia d'Illyrie. Actes de la table ronde internationale. (Clermont-Ferrand, 19 – 21 octobre 1989). Paris 1993. ISBN 2-86538-241-9. John Wilkes: The Illyrians. Oxford [u. a.] 1995. ISBN 0-631-19807-5. Pierre Cabanes, Neritan Ceka (fra.), Inscriptions d'Apollonia d'Illyrie. Botsaris, Athen 1998. Neritan Ceka (alb.): Në kërkim të historisë ilire (auf deutsch: Auf der Suche nach illyrischer Geschichte), 1998, ISBN 978-2-86958-094-7. Neritan Ceka (alb.): Ilirët Tiranë 2000. ISBN 99927-0-098-X. (online) Staso Forenbaher, Timothy Kaiser: Spila Nakovana: Ilirsko svestiste na Peljescu / An Illyrian sanctuary on the Peljesac peninsula. Zagreb 2003. Andreas Lippert (Hrsg.): Die Illyrer. Katalog zu einer Ausstellung von archäologischen Funden der albanischen Eisenzeit (12. – 4. Jh. v. Chr.) aus den Sammlungen des Archäologischen Institutes der Albanischen Akademie der Wissenschaften in Tirana und des Archäologischen Museums in Durrës. Sonderausstellung im Museum für Urgeschichte des Landes Niederösterreich, Asparn an der Zaya vom 3. April bis 30. November 2004. (=Katalog des NÖ. Landesmuseums. N.F. 448). St. Pölten 2004. ISBN 3-85460-215-4. Maria Adele Cavallaro: Da Teuta a Epulo. Interpretazione delle guerre illyriche e histriche tra 229 e 177 a. C. Bonn 2004. ISBN 3-7749-3150-X. Peter Siewert: Politische Organisationsformen im vorrömischen Südillyrien. In: G. Urso (Hrsg.): Dall’Adriatico al Danubio. L’Illirico nell’età greca e romana. Pisa 2004. S. 53–61. (PDF). Gianpaolo Urso (Hrsg.): Dall'Adriatico al Danubio. l'Illirico nell'età greca e romana. Atti del Convegno internazionale, Cividale del Friuli, 25-27 settembre 2003. (=I convegni della Fondazione Niccolò Canussio. 3). Pisa 2004. ISBN 88-467-1069-X. Marjeta Šašel Kos: Appian and Illyricum (= Situla. Razprave Narodnega Muzeja Slovenije / Dissertationes Musei Nationalis Sloveniae. Band 43). Narodni muzej Slovenije, Ljubljana 2005, ISBN 961-6169-36-X. Weblinks Einzelnachweise Historische europäische Ethnie Antike Ethnie
Q146715
104.94216
5329212
https://de.wikipedia.org/wiki/Linguolabial
Linguolabial
Linguolabial beschreibt in der Phonetik den Artikulationsort eines Lautes. Ein Linguolabial wird gebildet, indem die Zungenspitze gegen die obere Lippe gehalten wird. Linguolabiale sind in den Sprachen der Welt äußerst selten, tauchen aber z. B. in verschiedenen Sprachen Vanuatus auf. Im Internationalen Phonetischen Alphabet werden Linguolabiale durch die Kombination eines alveolaren Konsonanten und einem untergesetzten Möwensymbol (◌̼ Unicode COMBINING SEAGULL BELOW U+033C) dargestellt. Artikulationsort
Q1197283
106.037427
106256
https://de.wikipedia.org/wiki/Furt
Furt
Als Furt bezeichnet man eine Flachstelle (Untiefe) in einem Bach- oder Flusslauf, mittels der das Gewässer zu Fuß, zu Pferd oder mit Fahrzeugen durchquert werden kann. Diese seichte Stelle ist somit Bestandteil einer übergeordneten Wegeverbindung und bestimmte den Verlauf von Verkehrswegen. Die Siedlungsentwicklung wurde lange Zeit durch die Lage an einer Furt begünstigt. Lage Die ältesten Furten entstanden an natürlichen Flachstellen eines Fließgewässers. Dabei wurde die Änderung der Morphologie der Fließgewässer genutzt, um ein gefahrenfreies Passieren zu ermöglichen. Bei mäandrierenden Fließgewässern befinden sich Furten regelmäßig am Wechsel von Prallhang zum Gleitufer. Die abschnittsweise Erhöhung des Sohlniveaus ist integraler Bestandteil der typischen Furt-Kolk-Sequenzen von Tieflandflüssen. Bei größeren Flüssen mit verzweigten Abschnitten sind die Furten überwiegend im Bereich von Stromspaltungsgebieten gelegen, da die Querung von mehreren Nebenarmen weniger risikobehaftet ist als die Nutzung des Hauptarmes, welcher höhere Fließgeschwindigkeiten und größere Sohltiefen aufweisen kann. Gewässeraufweitungen eignen sich ebenfalls als flache Übergangsstellen aufgrund der geringeren Wassertiefe. Das breitere Gewässerbett zeichnet sich durch eine verminderte Sohlerosion infolge der reduzierten Fließgeschwindigkeit und Sohlschubspannung (Schleppspannung) aus. Verkehrsgeschichte und Siedlungsentwicklung Furten in Flüssen sind von alters her bekannt. Die Lage von natürlichen Furten war von den naturräumlichen Gegebenheiten und den Veränderungen des Fließgewässers stark abhängig. Daher lenkten Furten maßgeblich den historischen Verlauf von Straßen und Wegen. Furten waren – besonders im Mittelalter – Ausgangspunkt von größeren Siedlungsgründungen, da die Bewohner von Handel und Verkehr profitierten. Denn an den Handelswegen im Bereich von Furten wurden mitunter Zölle erhoben. Noch heute erinnern Stadtnamen mit dem Begriff Furt an die historische Bedeutung der Überquerungsmöglichkeit für die Siedlungsentwicklung. Das Durchqueren eines Gewässers mithilfe einer Furt wird auch (durch)furten genannt. Für militärische Unternehmungen spielten Furten eine entscheidende Rolle, Vortrupps mussten Furten aufspüren und erkunden. Mit einem Boot wurde der Fluss befahren, dabei die Gewässertiefe ermittelt, insbesondere wurde die erkundete Furt auf Löcher im Flussbett überprüft. Bei schneller Fließgeschwindigkeit und Spiegelung der Bäume in der Wasseroberfläche kann man von einem tiefen Gewässer ausgehen, Sandbänke und kurze Wellen bei Wind sind ein Anzeichen einer Furt. Vor der Passage einer Furt trieb man eine Viehherde mehrmals durch die Furt (am besten Kühe, weil sie sehr langsam gehen), um den Flussgrund festzustampfen, damit die Räder der Fuhrwerke sich nicht „festsaugen“. Beim Flussübergang wurde Kavallerie (berittene Soldaten) oberhalb der Furt aufgestellt, um die Strömung zu brechen, unterhalb der Furt Posten zur Aufnahme von Gepäck und Menschen, welche von der Strömung mitgerissen wurden. Noch heute nutzt man in Bachläufen vorhandene Furten beim Bau von Wald- oder Wirtschaftswegen, wenn so der teure Bau von Brücken vermieden werden kann. Die an Fahrzeugen angeschriebene Wattiefe gibt die maximale Eintauchtiefe im Wasser an. Als Furten wurden auch die Flussquerungen bezeichnet, die sich dadurch auszeichneten, dass sie leicht zu erreichen waren. Dies trifft besonders auf sumpfige Gebiete in der norddeutschen Tiefebene zu. Ein Beispiel ist die sumpfige Flussaue der Randow, die nur an einer Stelle einen „trockenen“ Uferzugang bot; an dieser Stelle wurde Löcknitz angelegt.Querungen über breite oder vielbefahrenene Verkehrs-, nicht mehr Wasser-Ströme werden in übertragener Bedeutung als Fußgängerfurt bzw. Radfahrerfurt bezeichnet. Niedrigwasserquerungen Niedrigwasserquerung haben bei niedrigem (normalem) Wasserfluss eine Brückenfunktion. Bei Hochwasser wird die Fahrbahn überflutet und der Verkehr ggf. verhindert. Niedrigwasserbrücken machen Wasserstraßen unbefahrbar. Dies ist kein Problem, da sie (außer bei Hochwasser) ohnehin nicht befahrbar wären oder zu klein sind. Die einfachste Art der Niedrigwasserquerung (auch Floodway genannt) wird insbesondere für flache stehende oder fließende Gewässer oder partiell trockene Bachbetten verwendet. Sie besteht aus einer mit Asphalt, Betonplatten, Kies oder Pflastersteinen angereicherten Oberfläche. Namenkunde Varianten Viele Städte und Orte tragen den Begriff Furt(h) im Namen, was auf ihre Lage weist. In Norddeutschland ist die gleichbedeutende Endung Wedel verbreitet. In englischsprachigen Ortsbezeichnungen wird das Suffix -ford verwendet, z. B. Oxford oder Stratford. In den Niederlanden heißt es voorde oder voort wie in Bredevoort, Vilvoorde oder Zandvoort. Das lateinische trajectum (‚Furt‘) ist als (‚recht oder richt‘) beispielsweise in Dordrecht, Maastricht, Utrecht und Zwijndrecht bekannt. Orte mit Furt-Namen Furt (zahlreiche Orte) Furth (zahlreiche Orte) Fürth (zahlreiche Orte) Verden (Aller) Voerde Vörden Wœrth (Woerth im Elsass) Wörth am Main Wedel in Holstein Brody in der Ukraine und Brody in Polen Breddin im Landkreis Ostprignitz-Ruppin Vad in Rumänien in Zusammensetzung Adolzfurt Amersfoort (nach dem Fluss Amer, heute Eem) Arfurt Bad Salzdetfurth Baienfurt Bedford (Birkenfurt) Beerfurth Beiseförth Bökenförde Bosanski Brod (deutsch: „Bosnische Furt“) Bredevoort Breitfurt Breitenfurt Bremervörde Brevörde Brod nad Dyjí (Guldenfurt, wörtl. Furt ober der Thaya) Calvörde (früher Kollenvorde genannt) Český Brod (deutsch: „Böhmisch Brod“, 'Brod' heißt übersetzt 'Furt') Coevorden (Kuhfurt) Dietfurt Ditfurt Dryfort/Drengfurth, heute Srokowo (Polen) Dyherrnfurh, heute Brzeg Dolny (Polen) Drensteinfurt Erfurt Feuerthalen früher Furtal genannt Finowfurt Frankfurt am Main Frankfurt (Oder) Frankenfurt (heute Telgte) Furttal Furtheim (Abgegangene Ortschaft auf der Gemarkung Bolheim im Furtheimer Tal) Furtwangen im Schwarzwald Haßfurt am Main Havlíčkův Brod (früher: Německý Brod / Deutschbrod) Heufurt Heufurth (zu Hardegg (Niederösterreich)) Herford („Heeresfurt“) Illfurth Katzenfurt Kirchentellinsfurt Kirschfurt am Main Klagenfurt Langfurth Lengfurt am Main Mimigernaford (heute Münster) Ochsenfurt am Main Oßfurt Querfurt Salzwedel Schweinfurt am Main Slavonski Brod Staffort (stete Furt durch die Pfinz) Staßfurt Straußfurt Steinfurt Steinwedel Stettfurt Thetford Treffurt Trennfurt am Main Uherský Brod (deutsch: „Ungarisch Brod“) Uhyst (Spree) (1936–1947 Spreefurt) Unter- und Oberdietfurt Vadu Izei Vadu Moților (etwa „Furt der Motzen“) Vyšší Brod (deutsch: „Hohenfurth“) Wagenfurth Weddel Węgliniec (deutsch: „Kohlfurt“) Wendefurth Wipperfürth (über den Fluss Wupper, der früher Wipper hieß und im Oberlauf diesen Namen behalten hat) Wolfurt Wonfurt am Main Železný Brod (deutsch: „Eisenbrod“) Zweenfurth Weblinks Einzelnachweise Bewirtschaftung von Gewässern Siedlungsname Hydronym Verkehrsbauwerk Kulturlandschaft Wikipedia:Artikel mit Video Pferd in der Geschichte Infrastruktur für Pferde
Q12743
91.858983
522764
https://de.wikipedia.org/wiki/Graswurzel-Journalismus
Graswurzel-Journalismus
Graswurzel-Journalismus (von grassroot, auch partizipativer Journalismus oder Bürger-Journalismus) ist eine Form des Journalismus, bei der die Zivilgesellschaft innerhalb der klassischen Medien oder durch eigene Medien am gesellschaftlichen Diskurs teilnimmt. Die Publikationsmöglichkeiten im Internet, besonders Weblogs, Podcasts und Videoplattformen, haben zur Verbreitung des Graswurzel-Journalismus beigetragen. Definition Eine Definition für partizipativen Journalismus von Shayne Bowman und Chris Willis lautet übersetzt: „Partizipativer Journalismus ist die Tätigkeit eines Bürgers oder einer Gruppe von Bürgern, die eine aktive Rolle im Prozess der Recherche, des Berichtens, des Analysierens sowie des Verbreitens von Nachrichten und Informationen einnehmen. Ziel dieser Partizipation ist die Bereitstellung von unabhängigen, verlässlichen, genauen, ausführlichen und relevanten Informationen, die eine Demokratie benötigt.“ The act of a citizen, or group of citizens, playing an active role in the process of collecting, reporting, analyzing and disseminating news and information. The intent of this participation is to provide independent, reliable, accurate, wide-ranging and relevant information that a democracy requires. Geschichte Der Begriff Graswurzel-Journalismus lehnt sich an Graswurzelbewegung an und stammt aus dem Bereich der anglo-amerikanischen Publizistik. Im deutschsprachigen Raum war seit den 1970er Jahren das Konzept der Gegenöffentlichkeit verbreitet. Das partizipative Element betont der norwegische Friedensforscher Johan Galtung, der ein Konzept für einen friedensfördernden Journalismus entwickelt hat. Vorläufer sind die alternativen Stattzeitungen der 1970er und 1980er Jahre, ebenso die Freien Radios der 1980er Jahre. Eine Sonderform ist der gesetzlich verankerte Bürgerrundfunk. Wandzeitungen können auch ohne Internet interaktive Projekte organisieren. Als Vorläufer des User-Generated-Content können auch Offene Kanäle, veröffentlichte Leserbriefe sowie Hörer-/Zuschaueranrufe als Teil laufender Sendungen angesehen werden. Sie sind dem Graswurzel-Journalismus nur zum Teil verpflichtet. Beispiele Contraste, Monatszeitung für selbstverwaltete Betriebe und Kollektive Democracy Now, US-amerikanischer Graswurzeljournalismus Graswurzelrevolution, Monatszeitung für eine gewaltfreie, herrschaftslose Gesellschaft Graswurzel-TV, ein Internet-Sender Indymedia, Independent Media Center (IMC) NowPublic, ehemaliges US-Bürgerjournalismusangebot (populär 2007–2009) OhmyNews, eine südkoreanische internationale Internetzeitung Okto, ein TV-Sender, finanziert durch die Gemeinde Wien Roter Reporter, eine der ältesten lokalen Alternativzeitungen Wikinews, ein Nachrichtenportal (Wikimedia-Projekt) Siehe auch Stadtmagazin Netizen Alternativzeitschrift Literatur Bürgermedien, Neue Medien, Medienalternativen. München 2009, ISBN 978-3-9805604-5-0, kostenloser Download (PDF) Bürgermedien. Die Laien kommen. Themenheft Der Journalist, 8/2005 (der Hauptartikel online bei onlinejournalismus.de) Wer macht die Medien? Online-Journalismus zwischen Bürgerbeteiligung und Professionalisierung, München 2008, kostenloser Download (PDF) Dan Gillmor: We the Media. Grassroots Journalism by the People, for the People, 2004 Open Book Gabriele Hooffacker: Bürgerreporter: zwischen Partizipation und professioneller Redaktion. Formate des Bürgerjournalismus im Lokalfernsehen, in: Journalistik 3 (2018), S. 22–35, online verfügbar, abgerufen 20. Juni 2019 Bernd Hüttner: Verzeichnis der Alternativmedien 2006/2007, Neu-Ulm 2006 Jonas Kahl: Elektronische Presse und Bürgerjournalismus – Presserechtliche Rechte und Pflichten von Wortmedien im Internet, Baden-Baden 2013, ISBN 978-3-8487-0826-0 Christoph Neuberger / Christian Nuernbergk / Melanie Rischke: Journalismus im Internet: Zwischen Profession, Partizipation und Technik. Ergebnisse eines DFG-Forschungsprojekts. In: Mediaperspektiven Heft 4/2009 (PDF; 160 kB) Christoph Neuberger, Christian Nuernbergk, Melanie Rischke (Hrsg.): Journalismus im Internet. Profession - Partizipation - Technisierung, Wiesbaden 2009. ISBN 978-3-531-15767-2 Jan-Felix Schrape: Social Media, Massenmedien und gesellschaftliche Wirklichkeitskonstruktion, in: Berliner Journal für Soziologie 21(3) 2011, S. 407–429. Volltext Online (PDF-Datei; 490 kB) Weblinks Berufsrolle im Wandel – Im Gespräch mit Christoph Neuberger, Professor für Kommunikationswissenschaft an der Universität Münster (Menschen – Macher – Medien, Verdi.de, September 2006) Online-Journalismus zwischen Bürgerbeteiligung und Professionalisierung (kostenfreier Download, PDF) Umfangreiche Hausarbeit an der Westfälischen Wilhelms-Universität Münster (Stand 2002) Einzelnachweise Journalismus Online-Journalismus Bloggen
Q848979
136.18706
16242
https://de.wikipedia.org/wiki/S
S
S und s (gesprochen: []) ist der 18. Buchstabe des klassischen und der 19. Buchstabe des modernen lateinischen Alphabets. Das S ist ein Konsonant. In deutschen Texten tritt es mit einer durchschnittlichen Häufigkeit von 7,27 % auf: es ist dort der vierthäufigste Buchstabe, der zweithäufigste Konsonant. Historisch haben sich verschiedene Zeichen zur Darstellung des s und seiner Kombinationen entwickelt (S, ſ, s, ß, ẞ). Zu den Buchstaben Langes s („ſ“), Schluss-s, Scharfes s („ß“) und Großes Eszett („ẞ“) gibt es jeweils eigene Artikel. Das Fingeralphabet für Gehörlose bzw. Schwerhörige stellt den Buchstaben S dar, indem die geschlossene Faust vom Körper weg zeigt und der Daumen vor den Fingern zu liegen kommt. Geschichte des Buchstabens S Die protosinaitische Urform des Buchstabens stellt einen Bogen dar. Im phönizischen Alphabet wurde der Buchstabe etwas geometrisiert und bekam den Namen Schin, was Bogen bedeutet. Der Lautwert des Schin bei den Phöniziern war [ʃ]. Das Griechische kannte den Laut [ʃ] nicht. Das Schin wurde dennoch in das griechische Alphabet übernommen. Die Griechen änderten den Lautwert in [s], außerdem drehten sie den Buchstaben um 90 Grad entgegen (!) dem Uhrzeigersinn. Mit der Änderung der Schreibrichtung auf von-links-nach-rechts wurde der Buchstabe dann noch gespiegelt und erhielt so seine bis heute als Sigma bekannte Gestalt. Die Etrusker übernahmen von den Griechen die gedrehte, aber noch nicht gespiegelte Variante. Im Etruskischen verlor der Buchstabe mit der Zeit seine oberste Linie und sah wie ein umgedrehtes Z aus. Die Römer übernahmen dieses Zeichen, machten es jedoch fließender. Der Lautwert des S blieb bei Etruskern und Römern das [s]. Für den Kleinbuchstaben s wurden mehrere Zeichen entwickelt: Zum einen das runde s (s) eine verkleinerte Version des Großbuchstabens S, zum anderen das lange s „ſ“, das seinen Ursprung wahrscheinlich in zügiger Schreibschrift hat. Im Schriftbild wurde das lange s im Wort-, Silben- und Stammanlaut und meist innerhalb eines Wortes verwendet, das runde s vor allem am Ende eines Wortes oder Teilwortes (zu den Regeln vergleiche den Artikel Langes s). Übrigens gibt es auch vom kleinen griechischen Sigma je eine Variante für die Position Wortanfang und Wortmitte (σ) und Wortende (ς), und auch hier kann die finale Variante sowohl am Wort- als auch (wenn auch seltener, und nach nicht ganz den gleichen bzw. so klaren Regeln wie im Deutschen) am Morphem-Ende eintreten. Siehe auch Entstehung des Minuskel-s im Artikel „Langes s“. In den gebrochenen Schriften ist in der deutschen Rechtschreibung weiterhin die Unterscheidung zwischen langem und rundem s verpflichtend. Frühe Antiquaschriften enthielten den Buchstaben ebenfalls oft, dort kam er jedoch außer Gebrauch. Das lange s hat allerdings im Deutschen seine Spur im Buchstaben ß hinterlassen, das auf eine Ligatur aus ſ und z oder s zurückgeht. Die genaue Herkunft des Eszett ist bisher ungeklärt, Informationen hierzu im Artikel ß. Bezeichnungen der S-Varianten Teilweise wird hier wegen spezifischer Formen unterschieden in: lateinische Kursivhandschrift; Druck-Antiqua; Fraktur; deutsche Kurrentschrift. Besonders umgangssprachlich werden die Begriffe auch schriftenübergreifend verwendet, besonders beim „ß“. Manche Begriffe erschließen sich erst sicher durch das verwendete System der Gegenbegriffe im Text. Es existieren auch Schreibweisen mit -Es statt nur s. Die Formulierung scharfes s wird neben dem Zeichen auch für die Aussprache verwendet, wo es im Gegensatz zum weichen s bzw. milden s steht, und letztendlich auch durch Buchstabenkombinationen wie ss beziehungsweise früher ſſ umgesetzt wird. Ebenso gibt es die Formulierung kurzes s für die Ausspracheart. Im Englischen gibt es auch die Bezeichnung rucksack-s bzw. sputnik-s für das Plural-s. Verwendung und Aussprache Leser mit Deutsch als Muttersprache müssen sorgfältig zwischen den Buchstaben s und z einerseits und den Zeichen der Lautschrift, dem [s] und dem [z] andererseits, unterscheiden, wie die Beispiele „70“ und „nass“ verdeutlichen. Das Wort Siebzig hat die Aussprache [], die Aussprache von nass wird als [] dargestellt. Der Buchstabe s gehört mit seiner Aussprache [z] zu den Konsonantengraphemen, die im Normalfall (einzeln vor Vokal am Wortanfang oder im Wortinnern zwischen Vokalen) stimmhafte bzw. Lenis-Obstruenten darstellen (b, d, g, s, w /b, d, g, z, v/) und damit den entsprechenden stimmlosen Fortis-Obstruentenbuchstaben gegenüberstehen (p, t, k, ß, f /p, t, k, s, f/). Es ist aber ein typisches Phänomen im Deutschen, dass unter bestimmten Bedingungen diese Konsonantenbuchstaben wie ihre entsprechenden Fortis-Pendants ausgesprochen werden (Erbse, Smaragd, Möwchen). Dieses Aussprachephänomen in der deutschen Standardsprache ist hauptsächlich abhängig von der Stellung des dem Buchstaben zugeordneten Lautes in der Sprechsilbe. Für s gilt wie für b, d, g, w: Am Silbenende werden sie als (stimmlose) Fortis gesprochen (Kasten, Kosmos, Haus, das, liebte, ab, Widmung, und, Smaragd, jegliche, Möwchen). Vor weiteren stimmlosen Fortis-Obstruenten werden sie als (stimmlose) Fortis gesprochen (Skat, Ast, Abt, Erbse, Smaragd). Am Silbenanfang (wenn kein Fortis vorangeht und kein Fortis folgt) werden sie dagegen als Lenis-Phonem (in dieser Position also bedeutungsunterscheidend) gesprochen (See, Rose, Gänse, Elbe, übrig, gleich, wringen). Dieser Laut ist in der Standardsprache stimmhaft, im südlichen Deutsch jedoch im Falle von s stimmlos. Damit lässt er sich im süddeutschen Bereich oft nicht klar von ß trennen. Ähnlich fällt im süddeutschen Bereich b (und oft auch d und g) mit der Aussprache von p (t, k) zusammen. Für s gilt darüber hinaus: Nicht nur vor stimmlosen Fortis-Obstruenten, sondern vor allen Konsonantenbuchstaben wird s als (stimmlose) Fortis gesprochen (Slalom, Smaragd, Swinemünde) Daraus folgt auch, dass ss nicht für den Lenis-, sondern für den Fortis-Laut als „Kürzezeichen“ bzw. zur Darstellung des Silbengelenks verwendet wird (küssen, lässt). In st und sp wird es am Silbenanfang wie „sch+t“ /ʃt/ bzw. „sch+p“ /ʃp/ gesprochen (Stadt, Gespenst). Der Trigraph „sch“ wird als Zischlaut /ʃ/ ausgesprochen (schon, Asche). Nach l, n, m, ng kann vor /s/ ein Sprosskonsonant (ein Plosiv mit entsprechendem Artikulationsort) eingeschoben werden, so dass z. B. nst nicht anders als nzt (Kunst – grunzt), mst nicht anders als mpst (rummst – plumpst) und ngst nicht anders als nkst (singst – sinkst) gesprochen wird. Lautgeschichte Im Althochdeutschen und im frühen Mittelhochdeutschen gab es zwei verschiedene s-Laute: einen stimmlosen alveolo-palatalen Frikativ , der auf ein ererbtes germanisches s/ss zurückging (zum Beispiel in sunne, stein, kuss, kirse); und einen stimmlosen alveolaren Frikativ [s], der in der 2. Lautverschiebung aus kurzem t entstanden war z/zz (zum Beispiel in ezzen, daz, groz). In der heutigen Schreibung s für den sch-Anlaut vor t und p, der in der Regel auch auf ersteres ursprüngliches s zurückgeht, wirkt dieser Unterschied nach. Das heutige sch geht in den meisten Fällen auf ein ursprüngliches sk zurück, das sich zunächst zu einem s-ch entwickelte und dann zum heutigen sch. In einem Wort wie Kirsche und im Anlaut vor l, m, n, w (Schnee, Schwein) geht es jedoch auf ein älteres s oder z, bei Hirsch auf t zurück. Darstellung in Computersystemen s in statistischen Tabellen Nach DIN 55301 (Gestaltung statistischer Tabellen) steht das Minuskel s , das einer Wertangabe (Zahl) in einem Tabellenfach nachgestellt ist für „geschätzte Zahl“ als wertergänzenden Zeichen, auch Qualitätsanzeigern (im Gegensatz zu wertersetzenden Zeichen). Genau so wird das Zeichen auch in Tabellen der amtlichen Statistik verwendet. Zitat Siehe auch Ѕ, ein Buchstabe des mazedonischen Alphabets S-Code S-Kurve S-Box Fugenlaut (darunter: „Fugen-s“) Weblinks Einzelnachweise Lateinischer Buchstabe
Q9956
343.961345
90001
https://de.wikipedia.org/wiki/Produktdesign
Produktdesign
Die Dienstleistung Produktdesign, auch Industriedesign (englisch Industrial Design) genannt, befasst sich mit dem Entwurf serieller und industrieller Produkte. Im Allgemeinen werden dabei zwei Arbeitsbereiche unterschieden: Das Gestalten von Konsumgütern und das Gestalten von Investitionsgütern. Als Ergebnis der Arbeitsteilung arbeitet der Designer häufig in einem interdisziplinären Team, seine Aufgaben umfassen je nach Betätigungsfeld die Formfindung, beispielsweise unter dem Aspekt der formalen Schlüssigkeit, der Fertigungsgerechtigkeit oder den Bedürfnissen einer Zielgruppe. Der Designer ist nicht Gestalter von Unikaten, sondern von Produkten, die in einer seriellen (Massen)-Produktion hergestellt werden. Anwendungsgebiete Konsumgüter Unter den Bereich der Konsumgüter sind die Produkte des persönlichen Gebrauchs zusammengefasst: Haushaltsgeräte (Kaffeemaschinen, Mixer, Waschmaschinen, Rasenmäher, elektrischer Rasierer, Leuchten etc.) Werkzeuge Fahrzeuge (PKW, Motorräder, Roller, Fahrräder, Ski) siehe Automobildesign Möbel, siehe Möbeldesign Einbauküchen Leuchten Spielzeug, Spielmittelgestaltung Investitionsgüter Das Investitionsgüterdesign umfasst alle Aspekte der Gestaltung von der Funktionalität über die Ästhetik bis hin zur Ergonomie und der Benutzerfreundlichkeit. Innerhalb des Industrie‑Design stellt das Investitionsgüter‑Design eine Spezialisierung dar, die sich mit der Konzeption, dem Entwurf und der Konstruktion von klassischen Maschinenbauerzeugnissen beschäftigt. Investitionsgüter sind komplexe technische Erzeugnisse, die innerhalb einer Wertschöpfungskette sowohl zur Pro‑duktion von Waren und Gütern wie auch zur Kapitalbildung durch technische Dienstleistungen eingesetzt werden. Durch die Anpassung von Komponenten und Steuerungen an Nutzerbedürfnisse sowie durchdachte Arbeitsabläufe wird die Arbeit erleichtert und die Mitarbeitermotivation gesteigert. Das Design kann den Benutzer nicht nur emotional durch Form und Farbgebung ansprechen, sondern auch Arbeitssicherheit und Komfort verbessern. Solche grundlegenden Veränderungen lassen sich nicht auf bereits bestehende Maschinen übertragen. Es ist daher wichtig, tiefgreifende ergonomische und strukturelle Maßnahmen frühzeitig in den Designprozess einzuplanen. Beispiele: Produktionsmaschinen (Sägen, Fräsen etc.) Elektronische Geräte für den industriellen Einsatz (zum Beispiel Messgeräte) Medizintechnik (Nutz-)Fahrzeuge (LKW, Omnibusse, Traktoren, Gabelstapler, Hubwagen, Schienenfahrzeuge etc.) siehe Transportation Design Unterschied zu Konsumgüterdesign In der Industrieanlagen- und Maschinenbau-Branche liegt der Fokus auf einem anderen Kundenkreis. Die Produkte werden hinsichtlich Langlebigkeit, Sicherheit, Benutzerfreundlichkeit und Robustheit bewertet. Sie müssen transportfähig und für spezielle Anforderungen anpassbar sein. Kurzlebige Modetrends spielen in diesem Bereich kaum eine Rolle. In der Industriedesign-Welt steht immer ein langlebiges und zeitloses Design im Mittelpunkt. Hybride Produkt-Service-Systeme (PSS) Das Internet ermöglicht computergestützte Dienstleistungen, die immer und zu niedrigen Kosten verfügbar sind. Daraus folgt eine Wandlung von Softwareprodukten zu Webdiensten. Das und Unternehmen, die ihre Wertversprechen neu definieren und traditionelle Produktangebote durch ergänzende Dienstleistungen – das sogenannte Produkt-Service-System (PSS) – erweitern, führt besonders im Bereich der Industrie 4.0-Technologien zu einer Verschmelzung von Produkt und damit verbundener Dienstleistung. Das Gestalten von Produkten Das Gestalten von Produkten, das Produktdesign, findet grundsätzlich als Teil der Entwicklung dieser Produkte statt. Der Grad der Designfreiheit, die die Möglichkeit für eine Formfindung eröffnet, ist sehr stark abhängig von der Art des Produkts. Die Aufgaben eines Designers zur Gestaltfindung konzentrieren sich bei sehr technischen Produkten auf deren Funktion, so dass diese meist nur einem Ingenieur obliegt. Ebenso kann eine dekorative Vase nur selten ein Betätigungsfeld sein, weil sich diese Aufgabe vorrangig an Künstler richtet. Designprozess Der Prozess umfasst zu Beginn eine Zieldefinition oder eine Aufgabenstellung. In Abhängigkeit dieser Aufgabenstellung werden Konzepte erarbeitet, Skizzen zur Konstruktion und zur Gestalt angefertigt, erste Entwürfe als Modelle (in Originalgröße oder als Maßstabsmodell) aufgebaut, oder auch häufig nur als virtuelles Modell im Rechner aufgebaut, von denen dann Ansichten berechnet werden. Je nach Projekt kann die Resonanz mittels Marktforschung geprüft werden. Nachdem die Gestaltfindung abgeschlossen ist, wird die Konstruktion als CAD-Modell fertiggestellt. Hierbei sind technische Kenntnisse, wie sie beim Berufsbild des Technischen Zeichners gelehrt werden, von großem Vorteil. Die Umsetzung der Idee zum technischen Entwurf findet heute häufig komplett im Rechner statt. Modelle können dann in fast jedem Zwischenschritt über 3D-Drucker erstellt werden. Anhand von ersten Ideen, Skizzen und Zeichnungen visualisiert der Designer Varianten und Details zum Produkt. Dieser originär kreative Prozess wird auch bei sonst umfangreicher Nutzung des Rechners meist per Hand ausgeführt. Häufig werden die ersten Skizzen dann jedoch schon eingescannt, und mittels Bildbearbeitung für weitere Varianten digital weiterbearbeitet. Analyseaspekte Ein Designprodukt lässt sich nach seinen Funktionen unterscheiden und analysieren: Praktische Funktionen Funktionalität, Ergonomie, Sicherheit, Gebrauchstauglichkeit (usability), Benutzerfreundlichkeit, Wartung und Pflege Produktsprachliche Funktionen – sinnliche Funktionen - Formalästhetische Funktionen - Zeichenhafte, semantische Funktionen - Anzeichenfunktionen – haptische, olfaktorische und akustische Anzeichen - Symbolische Funktionen – soziale, kulturelle und religiöse Aspekte, Status, Gruppenzwang, Zielgruppen Ökologische Funktion – nachhaltige Entwicklung - Lebenszyklus (Haltbarkeit, technische Verfügbarkeit) - Material-Sparsamkeit ("reduce"), Material-Weiterverwendung ("reuse"), Recyclingfähigkeit ("recycle") - Entsorgung Ökonomische Funktion - Herstellungsaufwand, Komplexität - Herstellungstechniken - Anzahl der Fertigungsschritte - Materialien - Materialvielfalt, -komplexität - Transport-, Lageraufwand – Größe, Stapel-, Faltbarkeit, Gewicht usw. Der Begriff Produktdesign Industriedesign, Produktdesign oder Produktgestaltung sind Synonyme. Fachbereiche an Fachhochschulen und Hochschulen tragen entsprechende Namen und vergeben nach dem Studium das Diplom (oder Bachelor/Master) Diplom-Designer oder Diplom-Designer (FH). Der Begriff Produktdesign ist nicht geschützt. Die Einführung eines Ausbildungsberufes namens Technischer Produktdesigner führt somit leicht in die Irre. Dieser entspricht weitestgehend dem bisherigen Beruf des technischen Zeichners und hat in der Fachrichtung Maschinen- & Anlagenkonstruktion mit der gestalterischen Tätigkeit des Produktdesigners nichts zu tun. Die Fachrichtung Produktgestaltung & Konstruktion befasst sich mit Teilgebieten des Produktdesign Studiums. Darunter fallen die Themen; Ergonomie, Material- und Farbenlehre, Skizzieren sowie Rendern und konstruktives Ausarbeiten von Produkten und Gütern in diversen CAD-Anwendungen. Das Berufsbild des Industriedesigners Das Arbeitsfeld des Industriedesigners hat sich in den letzten Jahren stark gewandelt. Zwei Tendenzen befördern maßgeblich diesen Wandel. Eine stark verkürzte Überlebenszeit von Produkten in stark dynamisierten Märkten insbesondere im Konsumenten- aber auch im Investitionsgüterbereich führt zu einer stärkeren Bedeutung des Marketings allgemein und der Produktentwicklungs- und Designstrategien im Speziellen. Diesem Wandel wird das Design erfolgreich begegnen, wenn es gelingt, Designer mit entsprechenden technischen, analytischen und theoretischen Kenntnissen auszustatten und im Markt zu positionieren. Im Mittelpunkt der Arbeit steht das Planen, Konzipieren und Entwerfen von Produkten. Moderne Technik, innovatives Design und der Erlebniswert für den Menschen sind die Kernthemen des Berufes. Industriedesigner arbeiten heute zudem verstärkt an Schnittstellen zu anderen Disziplinen. Die Verknüpfung von Basisfähigkeiten mit einer wissenschaftlich untermauerten Strategie- und Prozesskompetenz sind heute daher unerlässlich. Verbände VDID – Verband Deutscher Industrie-Designer DDV – Deutscher Designer Verband Rat für Formgebung WDO – World Design Organization Siehe auch Akustikdesign, Automobildesign, Design, Designer, Dutch Design Week, Gebrauchsanleitung, Grafikdesign (= Kommunikationsdesign), Informationsdesign, Neues deutsches Design, Social Design, Universal Design Literatur Monographien Michael Schulze: Konzept und Werkbegriff. Die plastische Gestaltung in der Architekturausbildung, 1. Auflage 2013, Zürich, vdf Hochschulverlag AG an der ETH Zürich, 2013, ISBN 978-3-7281-3481-3 Bernhard E. Bürdek: Design. Geschichte, Theorie und Praxis der Produktgestaltung. Basel 2015 (4. Aufl.) Wilhelm Braun-Feldweg: Industrial Design heute. Umwelt aus der Fabrik, Rowohlt Verlag 1966 Normen, Standards und Richtlinien VDI-Fachbereich Produktentwicklung und Mechatronik: VDI/VDID 2424:2021-07. Industriedesign. Nutzerzentrierte Gestaltung im Produktentwicklungsprozess (Entwurf). In: VDI-Gesellschaft Produkt- und Prozessgestaltung (Hrsg.): VDI-Handbuch Produktentwicklung und Konstruktion. 2021. Weblinks Designlexikon International – Größtes deutsches Online-Lexikon zum Thema Design Rat für Formgebung / German Design Council Einzelnachweise Design ! Produktentwicklung
Q243606
131.89395
35791
https://de.wikipedia.org/wiki/Maurya-Reich
Maurya-Reich
Die Maurya (Sanskrit, मौर्य, maurya) waren eine altindische Dynastie, im Zeitraum zwischen 320 und 185 v. Chr., deren Reich die Nachfolge des Nanda-Staates antrat. Gegründet um 320 v. Chr. von Chandragupta Maurya († um 297 v. Chr.), hatte das Reich seinen Ausgangspunkt in Magadha, was das indische Kernland von der Antike bis zum indischen Frühmittelalter darstellte. Besondere Bedeutung und seine größte Ausdehnung erreichte das Maurya-Reich unter Ashoka, der in seinem Reich und in den angrenzenden Ländern für die Ausbreitung des Buddhismus sorgte. Geschichte Chandragupta Der Aufstieg des ersten Maurya-Herrschers, Chandragupta Maurya, begann einige Jahre nach dem Einfall Alexanders des Großen in Indien. Chandragupta kämpfte gegen die von Alexander dem Großen im Industal zurückgelassenen Garnisonen. Wann und unter welchen Umständen es ihm gelang, Pataliputra einzunehmen und den letzten Nanda-König zu stürzen, ist unbekannt. Um 320 v. Chr. scheint der Umsturz stattgefunden zu haben, mit dem Chandragupta die Herrschaft übernahm. Somit wurde das Nandareich, nach griechischen und indischen Quellen, wenige Jahre nach Alexanders Einfall in Indien von dem Mauryareich unter Chandragupta und seinem Mentor Kautilya abgelöst. Bekannt ist Chandragupta auch durch einen Vertrag mit dem Alexandernachfolger Seleukos I. Nikator. In Indien schloss Seleukos 303 v. Chr. einen Frieden mit Chandragupta (griech. Sandrokottos), dem ersten Vertreter der Maurya-Dynastie in dieser Zeit, indem Seleukos auf einen Teil des Herrschaftsgebietes verzichtete und im Gegenzug 500 Kriegselefanten erhielt. Seleukos war im Hindukusch einmarschiert, um auch dort das Erbe Alexanders anzutreten. Chandragupta trat ihm im Punjab erfolgreich entgegen. Gegen den Austausch der Kriegselefanten erhielt Chandragupta 303 v. Chr. alle Gebiete östlich von Kabul (die antiken Regionen Gedrosien, Arachosien, Gandhara und Paropamisaden). Seleukos schickte den Gesandten Megasthenes im Jahre 302 v. Chr. an den Hof Chandraguptas. Megasthenes verfasste einen umfangreichen Bericht über das indische Reich. So schildert er z. B. sieben Berufsgruppen, die im indischen Leben eine Rolle spielen. Er berichtet, dass der König Eigentümer allen Landes sei. Für die politische Organisation spielen Spione und Aufpasser eine große Rolle. Es entsteht der Eindruck eines straff organisierten Staates. Die Beobachtungen von Megasthenes beziehen sich jedoch primär auf die Hauptstadt und das unmittelbare Hinterland. In einem Atemzug mit der Politik Chandraguptas wird sein Minister Kautilya (oder Chanakya) genannt, der Autor des Arthashastras. Das Reich Chandraguptas scheint eine direkte Umsetzung der im Arthashastra geforderten politischen Maxime zu sein. Die von Megasthenes erwähnten Spione empfiehlt Kautilya auch im Arthashastra als Mittel der Politik. Angeblich soll Chandragupta sich dem Jainismus zugewandt haben. Die jainistische Überlieferung erzählt, er habe sich in Karnataka zu Tode gefastet. Bindusara Unter Chandraguptas Sohn Bindusara (um 297–268 v. Chr.) nahm die Reichserweiterung ihren Fortgang und fand mit der Eroberung des Königreichs Kalinga (Gebiet des heutigen Orissa) unter Kaiser Ashoka (268–232 v. Chr.) ihren Abschluss. An seinem Hof erschienen auch griechische Gesandte, so Daimachos im (3. Jahrhundert v. Chr.) und (eventuell) Dionysios, die wie Megasthenes heute verlorene Werke über Indien verfassten (Indika). Im Fall des Dionysios ist es allerdings unklar, bei welchem indischen Herrscher er als Gesandter fungierte; vielleicht handelte es sich auch um Ashoka. Ashoka Samrat Ashoka, ein jüngerer Sohn Bindusaras, verdrängte in einem Staatsstreich mit Hilfe seines Ministers Radhagupta seine Brüder, und übernahm selbst die Macht. Unter diesem Kaiser entfaltete sich die Maurya-Dynastie zum größten Reich der indischen Antike, das den gesamten indischen Subkontinent bis in den äußersten Süden, und zudem Teile des heutigen Pakistans und Afghanistans umfasste. Allerdings schließt man aus dem Fehlen von Inschriften im Dekhan auf regionale Schwachpunkte im Machtgefüge. Unter Ashoka erreichte das Maurya-Reich seine größte Ausdehnung. Die Fläche wird auf etwa 5.000.000 km² geschätzt und die Einwohnerzahl auf etwa 50–60 Millionen, was es zu einem der bevölkerungsreichsten Reiche der Antike macht. Der Kaiser – nach der extrem blutigen Eroberung von Kalinga in eine tiefe Krise geraten – konvertierte zum Buddhismus und gestaltete seine Politik fortan nach den Prinzipien der Lehre Buddhas, in der Friedfertigkeit und Toleranz die obersten Leitziele darstellen. Er schuf damit das erste aus der Geschichte bekannte Staatswesen, in dem Gewaltverzicht und soziale Wohlfahrt die tragenden Säulen einer gerechten Politik darstellen. Das Reich endete mit der Entmachtung des letzten Maurya von Magadha, Ashokas Enkel Brihadratha, durch seinen General Pushyamitra 185 v. Chr. Dieser begründete auf den „Ruinen“ des Maurya-Reiches die Shunga-Dynastie, über die jedoch, trotz einer 112-jährigen Herrschaftszeit, aufgrund von Quellenarmut sehr wenig bekannt ist. Maurya-Herrscher Chandragupta Maurya (321/320–ca. 297 v. Chr.) Bindusara (297–268 v. Chr.) Ashoka (268–232 v. Chr.) Kunala und Dasaratha (232–224 v. Chr.) Samprati (224–215 v. Chr.) Salisuka (215–202 v. Chr.) Devadharama (Devadharman) (202–195 v. Chr.) Satadhanvan (Satamdhanu) (195–187 v. Chr.) Brihadratha (187–185 v. Chr.) Staat, Gesellschaft und Wirtschaft Megasthenes, einem Gesandten des Seleukos am Hof des Chandraguptas, verdankt die historische Forschung einen der ausführlichsten Berichte über den Aufbau der Gesellschaft im Maurya-Reich während der Herrschaft Chandraguptas um 300 v. Chr. Auch wenn der Originaltext nicht überliefert ist, so gibt es doch lange Passagen seines Textes, die von mehreren klassischen Autoren zitiert werden. Megasthenes beschreibt in seinem Bericht über das indische Maurya-Reich sieben Stände oder Berufsgruppen: Philosophen (vermutlich die Brahmanen), Bauern (der zahlenmäßig größte Stand), Hirten, Kunsthandwerker, Krieger, die „Aufpasser“ (Spione, die dem König über die Vorgänge im Reich Bericht erstatten) und schließlich die Ratgeber und Beisitzer des Königs (wozu auch Angehörige der Gerichtshöfe und Verwaltung gezählt werden). Bemerkenswert an Megasthenes Bericht ist die Aussage, dass alles Land dem König gehöre. So müssen die Bauern dem König einen Pachtzins für ihr Land sowie ein Viertel ihres Ertrags an die Staatskasse zahlen. Die Kunsthandwerker wiederum erhalten Getreide aus dem königlichen Speicher, während den Kriegern die Ernährung der Kriegspferde und -elefanten bezahlt wird. Außerdem ist für die Forschung plausibel, dass Spione und Aufpasser als Herrschaftsinstrumente eingesetzt wurden. Eine weitere wichtige Quelle über das öffentliche Leben und die Wirtschaft des Maurya-Reiches ist das Staatslehrbuch Arthashastra von Kautilya, ein Mitstreiter Chandraguptas. Weil die heutige Forschung es eher für wahrscheinlich betrachtet, dass Kautilya in dem Arthashastra seine eigenen Vorstellungen und Erfahrungen zum politischen Handeln lehrbuchartig darstellt als ein exaktes Abbild des Maurya-Staates, ist das Arthashastra als Quelle zu Politik und Gesellschaft des Maurya-Reichs nur begrenzt von Wert. Dennoch kann aus dem Werk vermutlich geschlossen werden, dass das Maurya-Reich ein effizient organisierter, zentral regierter Staat war, in dem Landwirtschaft, Bergbau, Handel und Handwerk eine wirtschaftlich große Rolle spielten. Durch das Werk des Kautilya wird noch einmal bestätigt, dass die Maurya-Könige Spione zur Machtstabilisierung einsetzen. Aus der Herrschaftszeit von Ashoka sind eine Vielzahl von in Fels gehauene Ankündigungen, Anordnungen und Edikte überliefert (sog. Ashoka-Edikte). Aus den bis heute erhaltenen Felsinschriften kann die Geschichtsforschung Rückschlüsse auf Ashokas Politik und die staatliche Entwicklung des frühen Indiens ziehen. So geht aus den Inschriften hervor, dass das Reich unter Ashoka in fünf große Bereiche oder Provinzen eingeteilt war, mit Magadha und seiner Reichshauptstadt Pataliputra als Kerngebiet. Dieses Kerngebiet unterstand der direkten Herrschaft der Mauryas. Außerdhalb dieses Kerngebietes gab es vier Großprovinzen, über die weitere Herrscher als Vizekönige oder Gouverneure regierten, und in Taxila im Nordwesten, in Kalinga im Osten, im Westen in Ujjain und im Süden in Suvarnagiri bei Kurnool. Diese Großprovinzen waren wiederum in Unterprovinzen oder Großdistrikte unterteilt, die von Distriktbeamten verwaltet wurden. Religion Im Norden Indiens, dem Kerngebiet des Maurya-Reiches, hatte sich die vedische Religion ausgebreitet (die später, nach dem Untergang des Maurya-Reiches, in den Hinduismus überging). Historiker gehen davon aus, dass die vedischen Götter zur Zeit der Maurya schon an Bedeutung verloren haben. Durch den Bericht des griechischen Diplomaten Megasthenes vom Hof des Chandragupta weiß man, dass es Kulte um Götter wie Shiva und Krishna gab, die jedoch schließlich von den Brahmanen in die vedische Götterwelt eingebunden wurden. Daneben verehrte die Landbevölkerung eine Vielzahl von anderen Göttern, Geistern und Dämonen, etwa die Muttergöttin, Schlangengötter und -göttinnen (naga und nagini), Dämonen, Erdkräfte und Baumgeister. Ab dem 5. Jahrhundert v. Chr., der Zeit der Städteentwicklung, ermöglichte ein zunehmenden Wohlstand und gesellschaftlicher Wandel mehr Individualismus, auch in religiösen Fragen. So entstanden neue, zunächst mönchisch geprägte Religionsformen, wie der Jainismus und der Buddhismus, die von einer wohlhabenden städtischen Elite unterstützt werden konnten. Von Chandragupta, dem ersten Maurya-Herrscher, ist überliefert, dass er sich dem Jainismus zuwandte. Religionsgeschichtlich bedeutender ist das Interesse Ashokas, seines Nachfahren, am Buddhismus. Ashoka wurde ein Förderer des Buddhismus, durch dessen Missionstätigkeit sich der Buddhismus nicht nur im Kernreich der Maurya ausbreitete, sondern auch in Südostindien und Sri Lanka (durch Ashokas Bruder oder Sohn Mahinda) sowie in Nordwestindien. Diese Missionsaktivitäten waren grundlegend dafür, dass sich der Buddhismus später, auch nach dem Ende des Maurya-Reichs, von Südostindien und Sri Lanka aus nach Südostasien ausbreitete und von Nordwestindien weiter nach Zentralasien und bis in das Kaiserreich China. Zur Bekanntmachung der neuen Ethik des Buddhismus verwandte sich Ashoka unter anderem eine Praxis, die bereits in Persien bekannt war: Edikte, die in Felsen und Siegessäulen eingehauen und so in verschiedenen Landesteilen seines Reiches verbreitet wurden. Kunst und Kultur Bedeutende kunsthistorische Hinterlassenschaften aus der Maurya-Zeit sind vor allem die Siegessäulen der Maurya. Sie sind zwar persisch beeinflusst, haben aber einen eigenen Stil durch den glänzend polierten Schaft, das Fehlen einer Basis und den umgestülpten Lotuskelch als Kapitell. Besonders bekannt ist die Ashoka-Säule, die durch Löwen gekrönt wird, heute das Wappen des Staates Indien. Neben Löwen trugen eine Reihe von Ashoka-Säulen auch das „Rad der Lehre“ (dharmachakra) an der Spitze. Unter Ashoka entwickelte sich auch eine Bautätigkeit, so ließ er Unterkünfte für buddhistische Mönche in Felsenhöhlen anlegen oder einfache Klöster (viharas) aus Ziegeln erbauen. Unter Ashoka wurden auch eine Vielzahl von Stupas errichtet, buddhistische Bauwerke, die Buddha selbst und seine Lehre symbolisieren sollten. Vorläufer der Stupas unter Ashoka waren kreisförmig aufgeschüttete Grabhügel, die ursprünglich der Bestattung von Herrschern dienten. In späteren Stupas bewahrte man die Asche Buddhas auf. Stupas wurden so rituelle Zentren der Buddhaverehrung. Literatur Hermann Kulke, Dietmar Rothermund: Geschichte Indiens. Von der Induskultur bis heute. 3. Auflage. Beck, München 2018, ISBN 978-3-406-72063-5. Romila Thapar: The Penguin History of Early India. From the Origins to AD 1300. Penguin, London u. a. 2003, ISBN 0-14-028826-0. Weblinks Geschichte des Maurya-Reichs (englisch) altindische Münzen, u. a. von den Maurya Übersicht indischer Dynastien Einzelnachweise Historischer Staat (Indien) Indisches Altertum Patna
Q62943
203.062117
17734
https://de.wikipedia.org/wiki/Diyarbak%C4%B1r
Diyarbakır
Diyarbakır (; , , , zazaisch Diyarbekir, ) ist nach Gaziantep die zweitgrößte Stadt Südostanatoliens in der Türkei. Diyarbakır liegt auf einem Basaltplateau am rechten Tigrisufer in Südostanatolien. Seit einer Gebietsreform ist die Stadt eine Büyükşehir Belediyesi, damit ist sie flächen- und einwohnermäßig identisch mit der Provinz. Bereits im Altertum war sie unter dem Namen Amida bedeutend. In der Stadt leben überwiegend Kurden. Name Der antike Name der Stadt erscheint erstmals in assyrischen Geschichtsquellen aus dem 13. Jahrhundert v. Chr. als Amida oder Amed. In griechischen und lateinischen Quellen erscheint sie als Amido und Amida. Nach der Eroberung durch die arabischen Armeen tauchen auch die Namen Amid und Schwarzes Amid auf. Der Zusatz Schwarz soll sich auf die Farbe des Basalts beziehen, aus dem viele Gebäude der Stadt erbaut sind. Der arabische Name Diyarbekir mit der Bedeutung Land der Bekr wurde dem Gebiet um Amida nach der Niederlassung der arabischen Stammesgruppe der Bakr im späten 7. Jahrhundert verliehen. Hauptort dieses Gebietes war die Stadt Amida, und mit der Zeit ging der Name der Gegend auf die Stadt selbst über. Christlich-syrische Traditionen leiten den Namen Diyarbekir hingegen vom aramäischen Dayr Bekir (= „erste Kirche“, oder „Kirche der Jungfrau [Maria]“) in Anlehnung an die Mutter-Gottes-Kirche (Meryem Ana Kilisesi) in der Stadt ab. Die Kirche ist laut lokaler Tradition eine der ältesten Kirchen überhaupt und soll aus dem 2. Jahrhundert stammen; die ältesten erhaltenen Teile stammen allerdings aus der Spätantike. Die moderne Türkei hat den Namen Diyarbekir 1937 in Diyarbakır (Gebiet des Kupfers) umgewandelt. Kurden verwenden die aramäische Bezeichnung Amed in Anspielung auf das antike Volk der Meder, als dessen Nachfolger sie sich sehen. Etymologisch besteht allerdings keine Verbindung des aramäischen Amed bzw. Amid mit den Medern. Gliederung Per Gerichtsentscheid erhielt die Stadt am 28. Dezember 1993 ein Oberbürgermeisteramt und wurde zur Großstadtkommune erklärt. Das Stadtgebiet umfasst seitdem 2060 km². Die Stadt besteht aus 82 Stadtvierteln (tr: Mahalle) und vier Kommunen. Diese heißen Bağlar, Kayapınar, Sur und Yenişehir. Die vier Kommunen sind gleichzeitig Landkreise der Provinz Diyarbakır. Nach der Gebietsreform von 2014 wurden alle Kommunen der restlichen Landkreise in der Provinz direkt dem Oberbürgermeister unterstellt. Politik Bei den Kommunalwahlen 2014 wurde Gültan Kışanak (BDP) zur Oberbürgermeisterin gewählt. Da die BDP bemüht war, mehr politische Gleichberechtigung zwischen Mann und Frau herzustellen, das Kommunalrecht aber eine formelle Doppelspitze für das Bürgermeisteramt nicht kennt, wurde in den von der BDP gewonnenen Bürgermeisterämtern formell jeweils ein Stellvertreter des anderen Geschlechts mit gleichen Rechten berufen. In Diyarbakır war der Stellvertreter Fırat Anlı. In den Medien werden sie Co-Bürgermeister genannt. Am 25. Oktober 2016 wurden beide wegen Verdachts auf Terrorvergehen festgenommen. Am 1. November wurde Cumali Atilla als Zwangsverwalter eingesetzt. Anlı kam am 14. Juli 2017 unter Auflagen frei. Kışanak wurde 2019 wegen „Mitgliedschaft in einer terroristischen Vereinigung“ zu 14 Jahren und drei Monaten verurteilt. Stadtrat Bevölkerung Die Stadt wuchs nach 2008 rasant, nicht zuletzt durch zugezogene Bauern. Die Bevölkerung setzt sich mehrheitlich aus Zazas und Kurden zusammen, nur knapp 16 % betrachten sich selbst als ethnische Türken. Bis zum Völkermord an den Armeniern 1915, bei dem mehr als 150.000 Armenier aus Diyarbakır deportiert wurden, stellte die armenische Bevölkerung nach Zahlen des armenischen Patriarchats etwa 40 % der Gesamtpopulation der Stadt dar. Geschichte Assyrer, Perser, Seleukiden, Parther und Römer In neuassyrischer Zeit war Amid die Hauptstadt der Provinz Bit Zamani, eines damaligen aramäischen Königreiches. Nach jahrhundertelanger achämenidischer, seleukidischer und parthischer Herrschaft gelangte der Ort schließlich um 200 n. Chr. in römische Hand. In der Spätantike war Amida, trotz der Nähe zum Tigris zuvor eher unbedeutend, eine sehr wichtige römische Festung an der Grenze zum persischen Sassanidenreich und wurde von Kaiser Constantius II. ab 349 stark befestigt, der dort sieben Legionen stationierte (da spätrömische Legionen kleiner waren als in früherer Zeit, entsprach dies einer Besatzung von etwa 7000 Mann). Die spätrömische Festungsmauer ist zu großen Teilen erhalten. Kriege zwischen Römern und Persern Im Jahre 359 wurde Amida 73 Tage von dem Sassanidenkönig Schapur II. belagert und schließlich gestürmt (siehe Belagerung von Amida). Der römische Geschichtsschreiber Ammianus Marcellinus, damals dort als Soldat stationiert, beschrieb später, wie er mit zwei Kameraden aus der Stadt entkam und schließlich Melitene erreichte. Auch später war der Ort in den römisch-persischen Kriegen heftig umkämpft: Anfang 503 konnte der Perserkönig Kavadh I. die Stadt nach einer wiederum wochenlangen Belagerung einnehmen, von der die Chronik des Zeitzeugen Josua Stylites, die Geschichte des Pseudo-Zacharias von Mytilene und etwas später auch der griechische Historiker Prokopios von Caesarea anschaulich berichten. Wenig später begannen umgekehrt kaiserliche Truppen mit der Belagerung der persischen Garnison in der Stadt. 505 ging sie schließlich gegen ein hohes Lösegeld wieder in römische Hand über, nachdem ein Großteil der Bevölkerung deportiert oder getötet worden war. Amida blieb weiter umkämpft und wurde schließlich im Jahre 638 von den Arabern erobert. Damit endete die antike Phase der Siedlung. Christianisierung, Bistum Amida, Monophysitismus Die älteste Kirche im Umkreis der Stadt wurde ab 2014 ausgegraben. Sie stammt aus der Spätantike und befand sich unterhalb der Zerzevan-Burg im Distrikt Çınar, etwa 13 km von Çınar entfernt, das wiederum südlich von Diyarbakır liegt, und barg aramäische Inschriften. Der örtliche Friedhof ist noch einmal 150 Jahre älter. Die Kirche war mindestens bis zum Jahr 639 in Gebrauch, als Muslime die Stadt eroberten. Das Bistum von Amida war bereits auf den Konzilien von Nikaia (325) und von Konstantinopel (381) vertreten und gehörte zum Patriarchat von Antiochien. Nach dem Konzil von Chalcedon (451) wurde Amida ein Hort des Monophysitismus und eine Diözese der Syrisch-orthodoxen Kirche, zwischen dem 11. und 16. Jahrhundert zeitweilig auch Sitz des syrisch-orthodoxen Patriarchen von Antiochien (vor dessen Übersiedlung in das Kloster Zafaran). Berühmtester Bischof war Dionysius bar Salibi († 1171), letzter Metropolit Dionysius Abd al-Nur Aslan (1851–1933). Islamisierung, türkisches Fürstentum, Perser und Osmanen In der Schlacht von Amida wurde dann 973 der mit Byzanz verbündete Herrscher von Melitene, Mleh der Große, vernichtend von einem abbasidischen Heer geschlagen. In den folgenden Jahrhunderten war die Stadt Teil verschiedener türkischer Fürstentümer wie der Inaliden, Ortoqiden und Aq Qoyunlu. Anfang des 16. Jahrhunderts eroberten die Safawiden aus dem Iran die Stadt. Doch kurze Zeit später unterlagen sie in einer Schlacht 1514 den Osmanen. Der siegreiche Sultan Selim I. ließ die Stadt 1517 einnehmen. Sie wurde Hauptstadt des Eyâlet Diyarbakır und 1867 des Vilâyet Diyarbakır. Vernichtung der religiösen Minderheiten In der Stadt besteht, wenn auch seit 1933 ohne eigenen Bischof, eine syrisch-orthodoxe Gemeinde mit der Meryemana-Kirche als Zentrum, eine der ältesten Kirchen der Stadt und zeitweilig Patriarchalresidenz. Die Syrisch-katholische Kirche war im 19./20. Jahrhundert durch einen Patriarchalvikar vertreten, doch dominierte weiterhin die syrisch-orthodoxe Kirche. Ab dem 12. Jahrhundert gab es auch einen Bischof der ostsyrischen Kirche des Ostens. Erzbischof Joseph I. von Amida wurde 1681 katholisch und begründete damit das chaldäisch-katholische Patriarchat in Diyarbakır, das 1830 in ein Erzbistum umgewandelt wurde. 1895 fanden Massaker gegen die christliche Minderheit statt. Im Ersten Weltkrieg war Diyarbakır unter dem Vilâyet-Gouverneur Mehmed Reschid Schauplatz des Völkermords an den Armeniern und desjenigen an den Aramäern. Der letzte Erzbischof musste 1915 die Stadt verlassen, nachdem im gesamten Bistum bis zu 500.000 Christen von Kurden und Türken getötet worden waren. Seit 1966 ist der chaldäisch-katholische Bischofsstuhl von Diyarbakır nominell wieder besetzt, doch residiert sein Inhaber in Istanbul. Heute leben nur noch wenige aramäische Christen (türk. Süryani) ständig in der Stadt. Die Armenier bilden eine kleine Restgemeinde um ihre auf das 15. Jahrhundert zurückgehende Theodor-Kirche. Am 22. Oktober 2011 wurde die während des Völkermords an den Armeniern zerstörte St.-Giragos-Kathedrale (Surp Giragos) restauriert und mit einer Zeremonie eröffnet. Die Kathedrale wurde 1371 erbaut und ist nach der Kirche zum Heiligen Kreuz auf der Insel Akdamar die bedeutendste armenische Kirche der Türkei. Die Restaurierungsarbeiten kosteten 3 Millionen Dollar, dauerten drei Jahre und wurden durch den Staat und Spenden finanziert. Der 29 m hohe Kirchturm, der ebenfalls 1915 zerstört worden war, ist inklusive einer Glocke wieder aufgebaut worden. Im Gegensatz zur Kirche bei Akdamar, ist die Kathedrale im Besitz der armenischen Gemeinde und ist nicht staatlich. Nach der Zerstörung des Turmes 1915 wurde die Kathedrale für verschiedene Zwecke genutzt, ehe sie 1960 wieder der armenischen Gemeinde übergeben wurde. 1980 wurde sie wieder verstaatlicht und dem Zerfall überlassen. Kurdenkonflikt In den 1970er Jahren kam es zu einem massiven Zustrom von Menschen, zumeist Kurden, der die Stadt rasch stark wachsen ließ. Bis 2002 galt für Diyarbakır jahrelang der Ausnahmezustand (OHAL). Seit 2015 kommt es nach der geänderten Kurdenpolitik des türkischen Staates zu Kämpfen und großen Zerstörungen in der Stadt. Luftaufnahmen des Anfang 2016 teilweise abgesperrten Stadtteils Sur zeigen, dass weite Teile der Kampfzone in der historischen Altstadt schwer beschädigt wurden, nach Schätzungen bis zu 80 Prozent der dortigen Gebäude, darunter auch die erst kürzlich wieder eröffnete St.-Giragos-Kathedrale. Ein großer Teil der Altstadt wurde verstaatlicht und evakuiert. Nach Ende der Kampfhandlungen begannen Abrissbagger mit der Zerstörung der Gebäude. Es entstanden große Freiflächen. Zülfü Livaneli, der ehrenamtliche türkische UNESCO-Botschafter trat im Mai 2016 aus Protest von seinem Amt zurück, weil die UNESCO, die 2015 Teile der Altstadt zum Weltkulturerbe erklärt hatte, nichts gegen die Zerstörung der Kulturstätten unternehme, wie sein Vorwurf lautet. Der Anschlag in Diyarbakır am 4. November 2016 forderte acht Todesopfer. Wirtschaft und Verkehr Diyarbakır ist ein wichtiger Industriestandort der Türkei und von Südostanatolien. Das große Südostanatolien-Staudammprojekt gab auch der Landwirtschaft einen Aufschwung. Trotzdem wandern viele Menschen in die türkischen Millionenstädte (vorwiegend Istanbul) aus. In den letzten Jahren ist in Diyarbakır ein großes Marmorgewerbe entstanden und Marmor ist zu einem wichtigen Exportgut geworden. Im Jahr 2010 lag die Arbeitslosigkeit in Diyarbakır bei 20,6 %. Vom Flughafen Diyarbakır werden u. a. Verbindungen nach Istanbul und Ankara sowie zu einigen ausländischen Flughäfen angeboten. Sehenswürdigkeiten Die Stadt besitzt durch ihre reiche Geschichte eine Vielzahl an Gebäuden wie Kirchen, Moscheen, mittelalterlichen Häusern und Befestigungsanlagen. Befestigungsanlagen Diyarbakır besitzt eine der größten und besterhaltenen antiken Befestigungsanlagen der Welt. Sie besteht zum größten Teil aus Basalt. Die Anlage wird in einen inneren und einen äußeren Abschnitt unterteilt. Im Jahre 349 ließ der römische Kaiser Constantius II. die Mauern und Burg der Stadt erneuern und massiv erweitern, da der bis dahin eher bedeutungslose Ort nun zu einer Hauptfestung an der hart umkämpften Grenze zu Persien werden sollte. So erhielten die Mauern ihr heutiges Aussehen. Seitdem wurden die Mauern zwar wiederholt verstärkt, sie sind im Kern aber noch ganz überwiegend spätantik. Die Mauer ist etwa fünf Kilometer lang, hat eine Höhe von zehn bis zwölf Metern und eine Dicke von drei bis fünf Metern. Sie hat 82 Türme und vier Tore. Die Tore zeigen in die vier Himmelsrichtungen: Dağ Kapısı (Bergtor) oder Harput Kapısı im Norden Urfa Kapısı oder Rum Kapısı im Westen Mardin Kapısı oder Tel Kapısı im Süden Yeni Kapı (Neues Tor), Dicle Kapısı (Tigristor) oder Su Kapısı (Wassertor) im Osten. Außerhalb dieser Mauern gab es einen Wall, der 1232 vom Ayyubiden Al-Kamil abgerissen wurde. In den 1930er-Jahren wurde ein Teil der nördlichen Mauer abgerissen. In den letzten Jahrzehnten wuchs die Stadt sehr stark und die Mauern waren durch Gebäude, die direkt an ihr lagen, gefährdet. Daher ließ die Stadtverwaltung den Bereich an den Mauern von Gebäuden freiräumen und an der Innenseite der Mauer Grünanlagen anlegen. Die Mauern und insbesondere die vielen Türme, die überdies gerne als Toiletten missbraucht werden, sind derzeit vor allem nachts sehr unsicher; Touristen wird daher dringend geraten, die Mauer nach Einbruch der Dunkelheit nicht mehr aufzusuchen. Die Zitadelle befindet sich im nordöstlichen Teil des äußeren Walls. Die Burg wird durch Mauern vom äußeren Wall getrennt. Sie hat 16 Türme und vier Tore, von denen sich zwei – Fetih Kapısı und Oğrun Kapısı – nach außen und die anderen zwei – Saray Kapısı und Küpeli Kapısı – zur Stadt hin öffnen. Innerhalb dieser Mauern liegt ein Hügel mit dem Stadtteil Viran Tepe. Sultan Süleyman I. vergrößerte die Anlage. Die Befestigungsanlagen von Diyarbakır wurden 2015 gemeinsam mit den Hevsel-Gärten, die zwischen Altstadt und Tigris liegen, von der UNESCO in die Liste des Kulturwelterbe aufgenommen. Große Moschee Im Mittelpunkt der Altstadt steht die Große Moschee (Ulu Cami). Sie wurde als christliche Kirche erbaut und im Jahr 639 in eine Moschee umgewandelt. Damit ist sie eines der ältesten moslemischen Gebetshäuser der Türkei. Anfangs teilten sich Christen und Moslems das Gotteshaus, bezeugt ist dies bis zum Jahr 770. Eine Inschrift berichtet von einem Umbau durch den Seldschuken-Sultan Malik Schah I. in eine Säulenhof-Moschee, die 1115 einem Erdbeben mit darauffolgender Brandkatastrophe zum Opfer fiel. Die wiederhergestellte Moschee erfuhr danach noch vielerlei Umbauten. Das Relief am Hauptportal zeigt einen Löwen, der ein Rind anfällt. Dahinter gelangt man in den Hof, der im Süden durch die Fassade des Betsaals, an den übrigen drei Seiten durch Arkadengänge begrenzt wird. Im Hof stehen zwei spitz überdachte Waschbrunnen. Insbesondere der dem Betsaal gegenüberliegende Flügel, in dem seit 1198 die Masudiye-Medrese untergebracht ist, zeigt ein erstaunliches Stilgemisch unterschiedlich ornamentierter Säulenschafte und Kapitelle aus antiken Spolien. Sehenswert ist auch die Mutter-Gottes-Kirche (türk. Meryemana Kilisesi), die im Kern aus dem späten 5. Jahrhundert stammt. Kultur Jährlich wird das Wassermelonenfestival gefeiert, bei dem Bauern für ihre Ernte eine Auszeichnung bekommen (eine Medaille oder ein gleichwertiges Geschenk). Das Gewicht der grün-schwarz gestreiften Wassermelonen liegt bei 40 bis 65 Kilogramm. Man setzt kleine Kinder in die ausgehöhlten Wassermelonen, um deren Größe hervorzuheben. Sport In Diyarbakir ist der Fußballklub Amed SK beheimatet. Er spielt seine Heimspiele im Stadion Seyrantepe Diski Spor Tesisleri. Bis zur Saison 2013/2014 gab es den Fußballklub Diyarbakırspor, welcher im Diyarbakır Atatürk Stadyumu spielte. Diyarbakir Turkuaz ist die Volleyballmannschaft von Diyarbakir. Galerie Klimatabelle Städtepartnerschaften Sulaimaniyya Jerewan Töchter und Söhne Aëtios von Amida (502–575), byzantinischer Mediziner und Verfasser medizinischer Schriften Süleyman Nazif (1870–1927), Poet Zabelle Boyajian (1873–1957), armenische Malerin, Schriftstellerin und Übersetzerin Hesen Hişyar (1897–1985), kurdischer Nationalist, Schriftsteller, Dichter und Historiker Cahit Sıtkı Tarancı (1910–1956), Dichter Ahmed Arif (1927–1991), kurdischer Poet Erol Yılmaz Akçal (1931–2016), Politiker Sezai Karakoç (1933–2021), Dichter Kevork Malikyan (* 1943), Schauspieler Abdülkadir Aksu (* 1944), Politiker Kudsi Ergüner (* 1952), Musiker Coşkun Sabah (* 1952), Musiker Oktay Vural (* 1956), Wirtschaftsjurist und Politiker (MHP) Hülya Özkan (* 1957), Fernsehmoderatorin und Journalistin Pınar Ayhan (* 1972), Sängerin Ayla Akat Ata (* 1976), kurdische Politikerin und Juristin Bero Bass (* 1980), Rapper Osman Karakoç (* 1984), Schauspieler Ceren Moray (* 1985), Schauspielerin Meltem Miraloğlu (* 1987), Schauspielerin Abdulhamit Yıldız (* 1987), Fußballspieler Mustafa Aşan (* 1988), Fußballspieler Zehra Doğan (* 1989), Künstlerin und Journalistin Mehmet Sıddık İstemi (* 1989), Fußballspieler Abdulaziz Demircan (* 1991), Fußballtorhüter Doğan Karakuş (* 1993), Fußballspieler Hamdullah Sincar (* 1996), Fußballspieler Ayşe Dinç (* 1999), Handball- und Beachhandballspielerin Meryem Bekmez (* 2000), Geherin Literatur Max van Berchem, Josef Strzygowski: Amida. Heidelberg 1910. Julian Raby: Diyarbakır, a rival to Iznik. A sixteenth century tile industry in eastern Anatolia, in: Istanbuler Mitteilungen 27/28 (1977/78) S. 429–459. Marianne Mehling: Knaurs Kulturführer: Türkei. Droemer Knaur München/Zürich 1987, S. 161–162, ISBN 3-426-26293-2. Richard G. Hovannisian (Hrsg.): Armenian Tigranakert/Diarbekir and Edessa/Urfa (= UCLA Armenian History and Culture series: Historic Armenian Cities and Provinces 6). Mazda Publishers, Costa Mesa, Calif. 2006. David Gaunt, Relations between Kurds and Syriacs and Assyrians in Late Ottoman Diyarbekir. In: J. Jongerden – J. Verheij (Hrsg.): Social Relations in Ottoman Diyarbekir, 1870–1915. Brill, Leiden 2012, S. 241–266. Grigory Kessel: Manuscript collection of the Syrian Orthodox church Meryemana in Diyarbakir: A preliminary survey. In: F. Briquel Chatonnet – M. Debié (Hrsg.): Manuscripta Syriaca. Des sources de première main. (= 'Cahiers d’études syriaques 4), Geuthner, Paris 2015, S. 79–123. Weblinks Gertrude Bell Archive, Album T (1911). T 1 bis T 131: Fotografien von Gertrude Bell, 1911 Einzelnachweise Ort in Kurdistan Tur Abdin Millionenstadt
Q83387
118.072519
12647
https://de.wikipedia.org/wiki/Ideologie
Ideologie
Ideologie (von ; zu , hier „Idee“, und „Lehre, Wissenschaft“ – eigentlich „Ideenlehre“) steht im weiteren Sinne bildungssprachlich für Weltanschauung. Im engeren Sinne wird damit zum einen auf Karl Marx zurückgehend das „falsche Bewusstsein“ einer Gesellschaft bezeichnet, zum anderen wird in der US-amerikanischen Wissenssoziologie jedes System von sozialen Normen als Ideologie bezeichnet, das Gruppen zur Rechtfertigung und Bewertung eigener und fremder Handlungen verwenden. Seit Marx und Engels bezieht sich der Ideologiebegriff auf „Ideen und Weltbilder, die sich nicht an Evidenz und guten Argumenten orientieren, sondern die darauf abzielen, Machtverhältnisse zu stabilisieren oder zu ändern“. Der Ideologiebegriff der marxistischen Philosophie, der im westlichen Marxismus eine zentrale Rolle spielt, geht davon aus, dass das herrschende Selbstbild vom objektiv möglichen Selbstbild der jeweiligen gesellschaftlichen Entwicklungsstufe verschieden ist. Da die materiellen Verhältnisse und Interessen das Denken bestimmen, wird nach Marx die Ideologie der Gesellschaft durch die Interessen dominanter gesellschaftlicher Gruppen, z. B. der Bourgeoisie, beeinflusst, um diese zu rechtfertigen. Durch eine Ideologiekritik kann diesen Interessen entgegengewirkt werden, um im Sinne eines allgemeinen Interesses ein nach dem Stand der Erkenntlichkeit korrektes und vollständiges Bild der Gesellschaft zu entwerfen. Eine wichtige Weiterentwicklung erfährt die Theorie der Ideologie bei Georg Lukács, der sie mit einer Theorie des Totalitarismus verknüpft: Die vollständige Vereinnahmung des Individuums durch gesellschaftlich organisierte Aktivitäten und Strukturen führt dazu, dass sich das Individuum nur innerhalb dieser Strukturen verstehen kann und somit selbst eine passende Ideologie entwickelt. In der Wissenssoziologie hat sich Ideologie hingegen als Bezeichnung für ausformulierte Leitbilder sozialer Gruppen oder Organisationen durchgesetzt, die zur Begründung und Rechtfertigung ihres Handelns dienen – ihre Ideen, Erkenntnisse, Kategorien und Wertvorstellungen. Sie bilden demnach das notwendige „Wir-Gefühl“, das den inneren Zusammenhalt jeder menschlichen Gemeinschaft gewährleistet. Dieser Ideologie-Begriff wird auch auf die Ideensysteme von politischen Bewegungen, Interessengruppen, Parteien etc. angewandt, wenn von politischen Ideologien die Rede ist. Im gesellschaftlichen Diskurs werden die beiden Ideologiebegriffe oft nicht hinreichend voneinander unterschieden. Ideengeschichte Zu Beginn des 19. Jahrhunderts prägte Antoine Louis Claude Destutt de Tracy den französischen Begriff idéologie als Bezeichnung für das Projekt einer „einheitlichen Wissenschaft der Vorstellungen oder Wahrnehmungen“ (science qui traite des idées ou perceptions), das sich auf die Erkenntnistheorie von Condillac berief. Die Idéologistes setzten zur Vorbeugung gegen eine neue Schreckensherrschaft ein pädagogisches Programm der Breitenaufklärung ins Werk. Durch eine publizistische Kampagne von Napoleon Bonaparte wurde diese Schule jedoch als wirklichkeitsfremdes, spekulatives Systemgebäude angegriffen; aus dieser Tradition leitet sich der Begriff der Ideologie als kohärentes Weltbild auf der Basis unzutreffender Prämissen ab. Erst durch Marx und Engels wurde dieser Begriff dann herrschaftskritisch angewandt. Zuvor war der Ausdruck Ideologen im deutschen Sprachraum für eine Orientierung an Ideen (anstatt der Realität), etwa der der Freiheit oder einer republikanischen Verfassung reserviert gewesen. Der Begriff der Ideologie ist, bis zum Versuch einer funktionalen Beschreibung in der Wissenssoziologie, immer eng mit dem Gedanken Ideologiekritik verbunden. Neben den hier genannten Positionen sind zu den Ideologiebegriffen u. a. einschlägig: Ferdinand Tönnies, Hans Barth, Ernst Topitsch, Hans Albert, Bertrand Russell, Louis Althusser, Theodor W. Adorno, Hannah Arendt und Jürgen Habermas. Vorläufer des modernen Ideologiebegriffes ist die Idolenlehre von Francis Bacon. Schon hier ist die Idee einer Aufdeckung von falschen Vorstellungen entscheidend: Die Reinigung des Denkens von Idolen (Trugbildern) ist für ihn die Voraussetzung von Wissenschaft. Quellen dieser Trugbilder können Tradition, Sprache, Herkunft und Sozialisation sein. Eine besondere Rolle spielte die Ideologiekritik in der Aufklärung. Zentrales Ziel der Aufklärung war die Befreiung des Bewusstseins der Menschen von Aberglauben, Irrtümern und Vorurteilen, die nach dieser Sichtweise den mittelalterlichen Machthabern zur Legitimation ihrer Herrschaft dienten. Die französischen Materialisten, u. a. Paul Heinrich Dietrich von Holbach und Claude Adrien Helvétius, kritisierten insbesondere die katholische Kirche und bezeichneten deren – ihrer Meinung nach im Interesse der Machterhaltung verbreiteten – Behauptungen als Priesterbetrug. Die Aufklärung verlangte die politische Durchsetzung von Vernunft, Wissenschaft, Demokratie und Menschenrechten. Die Vorstellung des Aufrechterhaltens von für das Individuum oder die Gesellschaft zuträglichen Irrtümern über Selbst und Welt findet sich auch bei Arthur Schopenhauer, Max Stirner, Friedrich Nietzsche, Vilfredo Pareto (dieser als „Derivation“). Marxistische Philosophie Nach dem sozialistischen Utopisten Saint Simon griffen Mitte des 19. Jahrhunderts Marx und Engels den seit Napoleon stigmatisierten Begriff wieder auf. Ideologie wird hier nicht als bewusste Verführung, sondern als ein sich aus den gesellschaftlichen Verhältnissen ergebender objektiv notwendiger Schein konzipiert: Aus dem Klassencharakter der gesellschaftlichen Verhältnisse ergibt sich nach Marx die Tendenz, dass die Gedanken der herrschenden Klasse, die mit den bestehenden Produktionsverhältnissen im Einklang stehen, auch die herrschenden Gedanken in der Gesellschaft sind. In seinem Hauptwerk, Das Kapital, bestimmt Marx den Waren- und Geldfetisch als bestimmende Verkehrungsmomente in der kapitalistischen Produktion. Die Menschen nehmen ihre (arbeitsteiligen) Beziehungen zueinander als Beziehungen zwischen Waren wahr. Im 20. Jahrhundert wurden von westlichen Marxisten ideologische Momente der Verdinglichung diskutiert, so zum Beispiel von Ernst Bloch (Geist der Utopie, 1918) oder Georg Lukács (Geschichte und Klassenbewußtsein, 1923), für dessen Verdinglichungsanalyse die Idee einer ideologischen Verblendung zentral war. Demnach sei Ideologie „notwendig falsches Bewusstsein“. Die Bilder von der Wirklichkeit, die das Subjekt sich schafft, sind von subjektiven Faktoren beeinflusst oder bestimmt. Daher sind sie nicht objektiv, sondern verfälschen die Wirklichkeit. Antonio Gramsci entwickelt in den Gefängnisheften einen Ideologiebegriff, der Ideologie als „gelebte, habituelle gesellschaftliche Praxis“ versteht. Ideologie ist bei ihm nicht mehr zu reduzieren auf die Ebene des Bewusstseins, sondern umfasst auch Handlungen der Menschen. Nach Louis Althusser vermitteln Ideologien dem Individuum Bewusstsein und üben über das Individuum Macht aus, z. B. in Verbindung mit sogenannten ideologischen Staatsapparaten. Zudem ermöglichen Ideologien es den Individuen, sich in der Gesellschaft als Subjekte wiederzuerkennen. Ideologie ist nach Althusser nicht nur Manipulation, sondern konstituiert Subjekte – sie verstünden sich trotz bzw. wegen ihrer Unterwerfungen als frei. Ein wichtiger Gedanke von Althusser ist, dass Ideologien unbewusst sind. Ein zentrales Werk für Althussers Ideologietheorie ist sein Essay Ideologie und ideologische Staatsapparate aus dem Jahre 1970. Frankfurter Schule Max Horkheimer und Theodor W. Adorno, die Begründer der Frankfurter Schule, übernahmen und erweiterten das Konzept der Marx’schen Ideologiekritik (Kapitel Kulturindustrie in der Dialektik der Aufklärung, 1947). Anknüpfend an Georg Lukács’ Verdinglichungsthese sahen sie in Warenfetisch und kapitalistischem Tauschprinzip die Quellen des gesellschaftlich erzeugten Verblendungszusammenhangs. Ideologie ist für sie objektiv notwendiges und zugleich falsches Bewusstsein, in dem sich Wahres und Unwahres verschränke, da Ideologie auf die Idee der Gerechtigkeit als apologetische Notwendigkeit nicht verzichten könne. So verdecke das Grundmodell bürgerlicher Ideologie, der „gerechte Tausch“, dass im kapitalistischen Lohnarbeitsverhältnis nur scheinbar Vergleichbares getauscht werde. In der Kulturindustrie nehme die Ideologie die Form des „Massenbetrugs“ an. Ein Veralten der Ideologie konstatierten die Frankfurter Ideologiekritiker für die Phase des postliberalen Spätkapitalismus und des Faschismus. Im Spätkapitalismus würden die faktischen Verhältnisse zu ihrer eigenen Ideologie, das heißt die Realität rechtfertigt sich durch ihr So-und-nicht-anders-Sein. Da der Faschismus in seinen Proklamationen auf jeden Wahrheitsanspruch verzichte, an dem Ideologie entlarvt werden könnte, triumphiere in seinem Herrschaftsbereich der blanke Zynismus des Machtstaates. Ideologiekritik ist nach Adorno bestimmte Negation im Hegelschen Sinn, „Konfrontation von Geistigem mit seiner Verwirklichung und hat zur Voraussetzung die Unterscheidung des Wahren und Unwahren im Urteil wie den Anspruch auf Wahrheit im Kritisierten“. Kritischer Rationalismus In seinem Werk Die offene Gesellschaft und ihre Feinde kritisiert Karl R. Popper den totalitären Charakter bestimmter Ideologien, insbesondere des Nationalsozialismus und des Stalinismus. Totalitäre politische Ideologien mit umfassendem Wahrheitsanspruch weisen oftmals Elemente von Mythenbildung, Geschichtsklitterung, Wahrheitsverleugnung und Diskriminierung konkurrierender Vorstellungen auf. Infolge des Zusammenbruchs des Nationalsozialismus und des real existierenden Sozialismus ist die Skepsis gegenüber umfassenden und mit Heilsversprechungen durchsetzten Theoriengebäuden gewachsen, insbesondere wenn sie mit Handlungsaufforderungen oder mit der Unterdrückung abweichender Ideen verbunden sind. Ideologiekritik im Sinne von Karl Popper umfasst dabei insbesondere die Analyse folgender Punkte: Dogmatisches Behaupten absoluter Wahrheiten Tendenz zur Immunisierung gegen Kritik Vorhandensein von Verschwörungstheorien utopische Harmonieideale die Behauptung von Werturteilen als Tatsachen. Ideologientypologie nach Kurt Lenk Der Politikwissenschaftler Kurt Lenk schlug in seinem Aufsatz Zum Strukturwandel politischer Ideologien im 19. und 20. Jahrhundert, den er in seinem Buch Rechts, wo die Mitte ist veröffentlichte, eine Klassifizierung der Ideologien vor. Er unterschied zwischen Rechtfertigungsideologien, Komplementärideologien, Verschleierungsideologien und Ausdrucksideologien. Unter Rechtfertigungsideologien verstand Lenk modellbildende Ideologien, die sich auf die gesamten gesellschaftlichen Beziehungen erstrecken. Das zu Grunde liegende Modell ist meist eine auf Rationalität und Wissenschaftlichkeit pochende Deutung der Realität. Ideologisch sei ein solches Modell, weil es bestrebt ist, seinerseits ein verbindliches Verständnis von Realität – nicht selten unter dem Anspruch der unangreifbaren Anwendung rationaler Argumente und Argumentationsstrukturen – als einzig „vernünftigerweise“ vertretbares zu etablieren. Lenk beschrieb demgegenüber Komplementärideologien als „für jene Gesellschaften lebensnotwendig, in denen der Mehrheit der Menschen ein relativ hohes Maß an Triebverzicht abverlangt werden muss, damit die Reproduktion der Gesellschaften gewährleistet ist.“ Komplementärideologien würden die benachteiligten Gesellschaftsmitglieder vertrösten. Zum einen beinhalteten diese Ideologien eine die Realität verleugnende Verheißung auf einen objektiv unmöglichen besseren Zustand. Diese trostspendende Zukunftserwartung soll die eigenständige Interessendurchsetzung der benachteiligten Gesellschaftsmitglieder lähmen und sie zur Gefolgschaft mit ihren Bedrückern verpflichten. Komplementärideologien arbeiten auch mit dem Bezug zur „Ehrlichkeit“, wonach der Zustand der Welt Schicksal sei und menschliches Tun daran nichts ändern könne. Verschleierungs- oder Ablenkungsideologien erzeugten nach Lenk Feindbilder, um einer Diskussion über die objektiven Gründe gesellschaftlicher Probleme aus dem Weg zu gehen. Eng angelehnt an diesen Aspekt verwendete er den Begriff Ausdrucksideologie. Darunter verstand er Ideologien, die bei den seelisch tieferen Schichten der Menschen ansetzten. Es werden Freund-Feind-Bilder inszeniert und Behauptungen aufgestellt, die die Massen im erzeugten Glauben fanatisieren und leiten sollen. Ideologie und Gesellschaft Ideologie der Gegenwart Die Gegenwart wird häufig als „nach- oder postideologisches Zeitalter“ bezeichnet, in dem die Subjekte der Gesellschaft vorwiegend realistisch und pragmatisch – also frei von Ideologien – agieren würden. Der französische Philosoph Jean-François Lyotard begründet dies mit dem heutigen Wissen über die Unmöglichkeit der Letztbegründung. Die Vielfalt der gesellschaftlichen Kräfte, der Pluralismus postmoderner, liberal demokratischer Gesellschaften, die sich permanent gegenseitig kontrollierten, verhindere nach dieser populären Auffassung die Bildung von Ideologien. Verfechter dieser Idee verweisen gern auf das Scheitern der großen ideologisch begründeten Systeme in der jüngeren Geschichte (Nationalsozialismus, Kommunismus). Auf diese Weise wird der Begriff Ideologie allein auf die abwertende Konnotation beschränkt und die damit assoziierten negativen Bilder legen den Schluss einer ideologiefreien Gegenwart nahe, die solche Entwicklungen überwunden habe. Durch die Transparenz der Politik, die angeblich keinen Fehler unerkannt lässt und umgehend korrigiere, versprechen die Beteiligten „Wahrheit und Ehrlichkeit“: Begriffe, die in einer Ideologie keinen Platz haben. Mit dieser modernen „Anti-Ideologie“ werden alle gegenwärtigen gesellschaftlichen Entwicklungen und Zustände, wie Technologischer Fortschritt, Demokratie, Kapitalismus, stetig zunehmendes Wirtschaftswachstum u. a. m., als „wahr und ehrlich“ legitimiert. Die Philosophen Slavoj Žižek und Herbert Schnädelbach weisen jedoch darauf hin, dass solch technokratisches Denken alles andere als nicht-ideologisch sei: Eine der idealen Grundbedingungen für eine Ideologie sei die Annahme, dass es keine Ideologie gäbe. Žižek sieht darin gar eine weitaus gefährlichere Ideologie als in denjenigen der Diktaturen: Despoten legitimieren Enteignung, Vertreibung, Gewalt usw. im Bewusstsein ihrer Machtfülle mit offensichtlichen Unwahrheiten. Demgegenüber ist im modernen Pluralismus ein Konsens der gesamten Gesellschaft notwendig: Tatsächlich ideologische Begründungen würden im alltäglichen Diskurs als unumstößliche Wahrheiten akzeptiert und bestimmten somit ohne offensichtlichen Zwang vermittels der Politik den sozialen Prozess. Je mehr sich die Bürger mit dieser versteckten Ideologie identifizierten, desto weniger brauche der Staat einzugreifen. Vordenker der Kritik dieser „diskursiven, alles durchdringenden, sich sozial organisierenden Ideologie der Gegenwart“ sind vor allem Ernesto Laclau und Chantal Mouffe. Ideologie in der Wissenschaft Die Abgrenzung von der Ideologie wurde im Zuge der Aufklärung zu einem Bestandteil der Wissenschaften, die sich im Gegensatz zu Ideologie und Glaube darum bemühen, wertfrei, neutral und intersubjektiv vorzugehen und die Gültigkeit ihrer Theorien und Hypothesen anhand empirischer Erfahrungstatsachen zu überprüfen (Wissenschaftstheorie, Empirisch-analytischer Ansatz). Wissenschaftliche Denkmuster, Paradigmen bzw. Ideenschulen können aber auch einen ideologischen und abwehrenden Charakter entwickeln und damit wissenschaftlichen Fortschritt hemmen. Thomas Kuhn analysierte in seinem Buch Die Struktur wissenschaftlicher Revolutionen wissenschaftliche Paradigmen auch unter dem Aspekt konkurrierender Ideenschulen. Diese legen fest: was beobachtet und überprüft wird die Art der Fragestellungen in Bezug auf ein Thema die Interpretationsrichtung von Ergebnissen der wissenschaftlichen Untersuchung Von einzelnen Wissenschaftstheoretikern (u. a. Bruno Latour) wird die Entgegensetzung von Ideologie und objektiver Wissenschaft als Machtmechanismus und Verschleierungstechnik betrachtet. Diese Position wird von Kritikern allerdings wiederum als zur totalen Irrationalität führend heftig kritisiert (Sokal-Affäre). Auch wenn Naturwissenschaften ideologiefrei sein könnten, gilt dies nicht unbedingt für Gesellschaftswissenschaften. So finden sich beispielsweise in der Völkerkunde und den Sozialwissenschaften um die Wende vom 19. zum 20. Jahrhundert etliche Beispiele für ideologisch geprägte Vorstellungen. Sehr deutlich wird dies bei den sozialdarwinistischen Schulen, die rassistische Ideen mit ihren Aufzeichnungen über angeblich „unterentwickelte Naturvölker“ nährten. Einen Sonderfall stellt nach Hans Albert das Fach Ökonomie dar. Da die Volkswirtschaftslehre sich u. a. mit der Frage beschäftigt, wie die gesellschaftliche Arbeit möglichst optimal organisiert, gesteuert oder beeinflusst werden kann, muss der einzelne Wissenschaftler auch einen Standpunkt zur Frage haben, was gut für die Gesellschaft ist. Das ist, bedingt durch unterschiedliche Partialinteressen, zwangsläufig immer eine ideologische Position. Ideologie und Politik Politik ist immer mit Ideologie verbunden, eine unideologische, rein technokratische Politik ist realitätsfremd. Politische Programme basieren auf bestimmten Wertesystemen. Die grundlegenden politischen Ideologien sind Liberalismus (Betonung der Freiheit auf Grundlage der Marktwirtschaft), Sozialismus (Betonung der Gleichheit) und Konservatismus (Betonung von gesellschaftlichen Traditionen). Der Vorwurf einer durch Ideologie bestimmten Argumentation findet sich häufig im politischen Diskurs. Damit wird unterstellt, dass ein Standpunkt deswegen nicht stichhaltig sei, weil er auf einer politischen Ideologie basiere. Der eigene Standpunkt wird demgegenüber implizit oder explizit so dargestellt, dass er auf einer nüchternen Analyse der Wahrheit, dem gesunden Menschenverstand oder auf einer nicht in Frage zu stellenden Ethik beruhen würde. Dies könnte indes die jeweilige Gegenseite in vielen Fällen mit dem gleichen Recht für sich in Anspruch nehmen. Während die politische Linke Ideologien als etwas versteht, das sich in allen Gesellschaftsschichten zur Vertretung der jeweiligen Interessen bilden kann, überwiegt bei der sich als Mitte verstehenden Rechten „die Ideologie von der eigenen Ideologielosigkeit“. Wo diese herrscht und nur die Ideologie der anderen als eine solche bezeichnet wird, muss jede Auseinandersetzung „ohne Ergebnis bleiben, steril, polemisch oder gar verletzend“ werden. Unausgesprochene Ideologeme (einzelne Elemente einer Ideologie) beherrschen oft die politische Debatte, ohne dass dies in der Diskussion immer bewusst wird. Ideologie und Religion Als analytische Kategorie findet neben dem Begriff der politischen Ideologie ebenso der Begriff der religiösen Ideologie Anwendung in der Wissenschaft. Eine religiöse Ideologie ist eine Ideologie mit transzendentem Bezug, die das Konzept einer Gesamtexistenz von Person und Gesellschaft umfasst und Integrations- sowie Bindungskräfte in bestimmten gesellschaftlichen Gruppen entwickeln kann. Die Entstehung einer religiösen Ideologie kann insbesondere darin begründet sein, dass in Verbindung mit einer oppositionellen politischen Haltung „Konfession“ eine bedeutsame Rolle zu spielen beginnt. Als populäre Beispiele für religiöse Ideologien werden in der Literatur Bezüge zu den Weltreligionen hergestellt und insbesondere der Protestantismus und der Katholizismus als religiöse Ideologien bezeichnet; unabhängig davon, ob die ursprünglichen Motive politisch gewesen seien. Gemeint ist mit einer derartigen Kennzeichnung jeweils nicht eine Religion als Gesamtphänomen, sondern eine bestimmte religiöse und politische Lehre, die eine religiöse Bewegung zur Folge haben kann. In allgemeiner Hinsicht wird der Begriff religiöse Ideologie auch in Zusammenhang mit der Orthodoxie und dem Fundamentalismus gebracht. Der Politikwissenschaftler Mathias Hildebrandt, der den Begriff politische Ideologie als Fundamentalismus zu fassen versuchte, stellte den traditionalistischen Aspekt von spezifischen religiösen Strömungen innerhalb von Religionen als ein gemeinsames Merkmal heraus. Er schrieb: „Es wird der Anspruch erhoben, zu den ursprünglichen Quellen der eigenen Tradition zurückzukehren und sie von den Verfälschungen ihrer historischen Entwicklung zu befreien, die zumeist als ein Degenerationsprozess begriffen wird.“ Einher ginge diese Auffassung mit einer „Essenzialisierung der eigenen Tradition, die den Anspruch erhebt, das wahre Wesen der eigenen Religion freigelegt zu haben“. Das Paradoxe bei den religiösen Ideologien sei allerdings, dass im Gegensatz zum Anspruch, zur wahren Lehre zurückzukehren, „in den meisten Fällen eine moderne religiöse Ideologie“ entstehe. Neben dem Begriff der religiösen Ideologie hat sich in der Religionspolitologie der Begriff politische Religion durchgesetzt. Der Akzent liegt bei diesem Begriff weder stark auf dem Politischen noch auf dem Religiösen von bestimmten Ideologien. Einerseits wird mit diesem Begriff die enge Verbindung zwischen religiösen und politischen Denkweisen hervorgehoben, andererseits die Verbindung zwischen Ideologien, die sowohl politische als auch religiöse Elemente und politisch-religiöse Bewegungen erfassen. Die Funktion der Ideologie Ideologie ist – nach Karl Mannheim – „Funktionalisierung der noologischen Ebene“ und somit Instrumentalisierung der menschlichen Erkenntnisfähigkeit oder konkreter noch – nach Roland Barthes – „Verwandlung von Geschichte in Natur.“ Ideologie sichert die eingeforderte Legitimation für die bestehende Ordnung und befriedigt das gemeinschaftliche Bedürfnis nach Sicherheit und Sinnhaftigkeit, das durch Religion nicht mehr gewährleistet werden könne: „Das Behagliche möchte allzu gern das zufällige Sosein des Alltags, wozu heutzutage romantisierte Gehalte (‚Mythen’) gehören, zum Absoluten hypostatieren und stabilisieren, damit es ihm ja nicht entgleitet. So vollzieht sich die unheimliche Wendung der Neuzeit, dass jene Kategorie des Absoluten, die einst das Göttliche einzufangen berufen war, zum Verdeckungsinstrument des Alltags wird, der durchaus bei sich bleiben möchte.“ Andererseits läuft die Ideologie Gefahr, als geschlossenes Sinnsystem einer komplexen Wirklichkeit letztlich nicht gerecht werden zu können und schlussendlich als Welterklärungsmodell zu scheitern. Da „Ideologie immer selbstreferentiell ist, das heißt sich immer durch die Distanznahme zu einem Anderen definiert, den sie als ‚ideologisch’ ablehnt und denunziert“ löst sie „den Widerspruch des entfremdeten Wirklichen durch eine Amputation, nicht durch eine Synthese“. Karl Mannheims These von der Funktionalisierung der Erkenntnis durch die Ideologie ergänzt Roland Barthes durch die Funktionalisierung des Mythos, den die Ideologie instrumentalisiert: „Die Semiologie hat uns gelehrt, dass der Mythos beauftragt ist, historische Intention als Natur zu gründen. Dieses Vorgehen ist genau das der bürgerlichen Ideologie. Wenn unsere Gesellschaft objektiv der privilegierte Bereich für mythische Bedeutung ist, so deshalb, weil der Mythos formal das am besten geeignete Instrument der ideologischen Umkehrung ist, durch die sie definiert wird. Auf allen Ebenen der menschlichen Kommunikation bewirkt der Mythos die Verkehrung der Antinatur in Pseudonatur.“ Die Geschichte des Ideologiebegriffs ist eng verknüpft mit der Geschichte der bürgerlichen Gesellschaft. Ideologie nach heutigem Verständnis wird erst möglich nach dem „Verschwinden des göttlichen Bezugspunktes“ das sich bereits ankündigt mit dem beginnenden Empirismus in Bacons „Idolae“, die als „Götzenbilder“ und „Täuschungsquellen“ den „Weg zur wahren Einsicht versperren“ Immanuel Kant – der seiner „Kritik der reinen Vernunft“ ein Bacon-Zitat über die Idolae voranstellt – stellt dann das traditionelle Seinsverständnis mit der in den vier Antinomien und auch in der transzendentalen Dialektik ständig wiederkehrenden Mahnung, das Epistemische nicht als Ontologisches misszudeuten, endgültig infrage und schafft somit „nachdem die objektiv ontologische Einheit des Weltbildes zerfallen war“ die Basis für Hegels dialektisches Weltbild, das „nur auf das Subjekt bezogen konzipierbar“ und nur als „eine im historischen Werden sich transformierende Einheitlichkeit“(ibid.) Gültigkeit beanspruchen konnte. Erst jetzt, nach Beendigung der französischen Revolution, ergibt es einen Sinn, von bürgerlicher Ideologie oder generell von einem Ideologiebegriff zu sprechen, der dann auch sogleich von Napoleon pejorativ auf den eigentlich wertfrei als „Lehre von den Ideen“ von den Spätaufklärern in der Nachfolge Condillacs und der empirischen Tradition aufgebrachten Terminus angewandt wurde. Den wesentlichen Beitrag zum heutigen Ideologieverständnis dürfte schließlich Karl Marx geleistet haben, der im „Elend der Philosophie“ ausführt: „[…] dieselben Menschen, welche die sozialen Verhältnisse gemäß ihrer materiellen Produktionsweise gestalten, gestalten auch die Prinzipien, die Ideen, die Kategorien gemäß ihren gesellschaftlichen Verhältnissen“. Auch wenn Mannheim zunächst versucht, zwischen wertfreien und wertenden Ideologien zu unterscheiden, kommt er doch zu dem Fazit, dass der wertfreie Ideologiebegriff „letzten Endes in eine ontologisch-metaphysische Wertung“ „hinübergleitet“. In diesem Zusammenhang spricht Mannheim dann auch vom „falschen Bewußtsein“, das die Ideologie zwangsläufig schafft: „Es sind also in erster Linie überholte und überlebte Normen und Denkformen, aber auch Weltauslegungsarten, die in diese ‚ideologische’ Funktion geraten können und vollzogenes Handeln, vorliegendes inneres und äußeres Sein nicht klären, sondern vielmehr verdecken.“ Die derart resultierende verkürzte Sicht auf die Realität beklagt Roland Barthes denn auch als „Verarmung des Bewußtseins“ die durch die Ideologie als bürgerliche geleistet wird: „Es ist die bürgerliche Ideologie selbst, die Bewegung, durch die die Bourgeoisie die Realität der Welt in ein Bild der Welt, die Geschichte in Natur verwandelt.“ Siehe auch -ismus Menschenbild Politischer Mythos Religionskritik Literatur Theodor W. Adorno: Beitrag zur Ideologienlehre. 1954, In: Soziologische Schriften I. Suhrkamp Taschenbuch Verlag, 1995, ISBN 3-518-27906-8. Louis Althusser: Ideologie und ideologische Staatsapparate. 1977, ISBN 3-87975-109-9. Hansjörg Bay, Christof Hamann (Hrsg.): Ideologie nach ihrem ‚Ende‘: Gesellschaftskritik zwischen Marxismus und Postmoderne. Westdeutscher Verlag, 1995, ISBN 3-322-94214-7. Roland Barthes: Mythen des Alltags. Vollständige Ausgabe, Berlin: Suhrkamp, 2012 Manuel Becker: Ideologiegeleitete Diktaturen in Deutschland. Zu den weltanschaulichen Grundlagen im Dritten Reich und in der DDR. Bouvier, Bonn 2009, ISBN 978-3-416-03272-8. Heiko Beyer und Alexandra Schauer (Hrsg.): Die Rückkehr der Ideologie. Zur Gegenwart eines Schlüsselbegriffs. Campus, Frankfurt am Main, New York 2021, ISBN 978-3-593-51170-2. Till Breyer und Mareike Schildmann (Hrsg.): Literatur und Ideologie, Themenschwerpunkt in: Internationales Archiv für Sozialgeschichte der deutschen Literatur 47.1 (2022), . (degruyter.com) Guy Debord: Die Gesellschaft des Spektakels, Berlin 1996 Terry Eagleton: Ideologie. Eine Einführung. Stuttgart 2000, ISBN 3-476-01783-4. Carl August Emge: Das Wesen der Ideologie. Ein Versuch in Hinsicht auf Antizipation, Perspektive, Vorurteil, Ressentiment, Selbstverständlichkeit, sich übernehmende Denkansprüche und dergleichen Vorwegnahmen mehr (= Akademie der Wissenschaften und der Literatur. Abhandlungen der geistes- und sozialwissenschaftlichen Klasse. Jahrgang 1961, Nr. 1). Jürgen Habermas: Wissenschaft und Technik als Ideologie. 18. Auflage. 2003, ISBN 3-518-10287-7. Stuart Hall: Ideologie, Identität, Repräsentation. Hamburg 2004, ISBN 3-88619-326-8. Gerhard Hauck: Einführung in die Ideologiekritik. ISBN 3-88619-209-1. Max Horkheimer: Ideologie und Handeln. In: Kritische Theorie der Gesellschaft. Band IV. Hans Kelsen: Aufsätze zur Ideologiekritik. (mit einer Einl. hrsg. von Ernst Topitsch). Neuwied 1964. Leo Kofler: Soziologie des Ideologischen. 1975, ISBN 3-17-001958-9. Jorge A. Larrain: The Concept of Ideology (Modern Revivals in Philosophy). 1992, ISBN 0-7512-0049-2. Kurt Lenk (Hrsg.): Ideologie – Ideologiekritik und Wissenschaftssoziologie. ISBN 3-593-33428-3. Hans-Joachim Lieber: Ideologie: eine historisch-systematische Einführung. Verlag F. Schöningh, 1985, ISBN 3-506-99232-5. Herbert Marcuse: Der eindimensionale Mensch. Studien zur Ideologie der fortgeschrittenen Industriegesellschaft. dtv, München 2004, ISBN 3-423-34084-3. Karl Mannheim: Ideologie und Utopie. 8. Auflage. 1995, ISBN 3-465-02822-8. Karl Marx, Friedrich Engels: in Marx-Engels-Jahrbuch 2003. Die Deutsche Ideologie. ISBN 3-05-003837-3. Karl Popper: Die Offene Gesellschaft und ihre Feinde. ISBN 3-16-145951-2 (Band 1), ISBN 3-8252-1725-6 (Band 2). Jan Rehmann: Einführung in die Ideologietheorie. Hamburg 2008, ISBN 978-3-88619-337-0. Kurt Salamun: Ideologie und Aufklärung: Weltanschauungstheorie und Politik. Böhlau, 1988, ISBN 3-205-05126-2. Brigitte Schlieben-Lange: Idéologie: Zur Rolle von Kategorisierungen im Wissenschaftsprozeß. (Schriften der Philosophisch-historischen Klasse der Heidelberger Akademie der Wissenschaften 18) C. Winter Universitätsverlag, Heidelberg 2000, ISBN 3-8253-0917-7. Ernst Topitsch: Vom Ursprung und Ende der Metaphysik. Wien 1958; Gottwerdung und Revolution. München 1973; Erkenntnis und Illusion. Hamburg 1979; Heil und Zeit. Ein Kapitel zur Weltanschauungsanalyse. Tübingen 1990. Slavoj Žižek: The Sublime Object of Ideology. Verso Books, London/ New York 1989, ISBN 0-86091-256-6. Slavoj Žižek (Hrsg.): Mapping Ideology. Verso, London/ New York 2012, ISBN 978-1-84467-554-8. Weblinks Herbert Schnädelbach: Was ist Ideologie? Versuch einer Begriffsklärung. (PDF; 421 kB) In: Das Argument. 50/1969. Jochen Vogt: Ideologiekritik. In: Ders. (Hrsg.): Einladung zur Literaturwissenschaft. Essen 2003. uni-due.de abgerufen am 13. Februar 2016. Dieter Wolf: Wie der Waren- und Geldfetisch den Zusammenhang von gesellschaftlichem Sein und Bewusstsein bestimmt. (PDF; 575 kB) Einzelnachweise Politische Philosophie Soziologie
Q7257
803.665199
141143
https://de.wikipedia.org/wiki/Delphi
Delphi
Delphi ( , ausgesprochen), ursprünglich Pytho () genannt, war eine Stadt im antiken Griechenland, die vor allem für ihr Orakel bekannt war. Seit 1987 gehören die Ausgrabungen von Delphi zur Liste des Weltkulturerbes der UNESCO. Westlich der Ruinen des antiken Delphi befindet sich die moderne Kleinstadt Delfi. Lage Delphi liegt nördlich des Golfs von Korinth in der heutigen Region Mittelgriechenland auf einer halbkreisförmigen Berglehne in einer Höhe von ca. 700 m am Fuße des Parnass und oberhalb des Tals des Xeropotamos (Ξεροπόταμος ‚trockener Fluss‘), der in der Antike Pleistos (Πλειστός) hieß. Zur Küste sind es etwa 15 Kilometer. In der Nähe liegen die Orte Galaxidi und Arachova sowie das Kloster Hosios Lukas. Geschichte Der Name Delphi leitet sich eventuell vom griechischen Wort (delphys) für „Gebärmutter“ ab und könnte auf eine alte Verehrung der Erdgöttin Gaia hinweisen – ein Bezug, der in der Antike allerdings unbekannt war. Vermutlich befand sich hier zudem ein Zeus-Heiligtum. Ab dem 8. Jahrhundert v. Chr. setzte sich in Delphi dann die Verehrung des Apollon durch und das Orakel entwickelte sich. Nach der geflügelten Schlange Python, die Apollon dem Mythos zufolge hier getötet haben soll, war Delphi zunächst unter dem Namen Pytho bekannt, ein Name, der in der Dichtung weiterlebte, ansonsten jedoch ab dem 6. Jahrhundert v. Chr. zunehmend durch den Namen Delphi ersetzt wurde. Nach einem Brand in den Jahren 548/47 v. Chr. wurde ein neuer Tempel für Apollon errichtet. Als dieser 373 v. Chr. durch einen Bergsturz zerstört wurde, erfolgte ein weiterer Neubau. Bald wurden zudem Schatzhäuser errichtet, in denen die zahlreichen kostbaren Weihegeschenke an den delphischen Apollon aufbewahrt wurden. Nicht zuletzt aufgrund dieser Schätze war die Kontrolle des Apollon-Heiligtums von erheblicher Bedeutung. Zunächst stand Delphi unter der Vorherrschaft von Krisa. Im Ersten Heiligen Krieg (600–590 v. Chr.) unterlag Krisa einem Bündnis von Thessalern, Sikyonern und Athenern, und Delphi gelangte unter die Kontrolle der Amphiktyonen, einem Bund griechischer Staaten, die gemeinsam Delphi beaufsichtigten. Als Siegesfest begründete Eurylochos um das Jahr 582 v. Chr. die Pythischen Spiele, die unter den Panhellenischen Spielen nach jenen von Olympia die bedeutendsten waren. Die Amphiktyonie behielt die Kontrolle über das delphische Apollon-Heiligtum bis zur makedonischen Eroberung im 4. Jahrhundert v. Chr., womit ab etwa 500 v. Chr. auch die Prägung eigener Münzen verbunden war. Ab 277 v. Chr. dominierte der Aitolische Bund für knapp ein Jahrhundert Delphi. In römischer Zeit nahm die wirtschaftliche und kultische Bedeutung Delphis allmählich ab. Einige römische Kaiser ergriffen im 1. und 2. Jahrhundert Maßnahmen, um den Abstieg Delphis aufzuhalten, und bewirkten jeweils kurze Blütephasen. Kaiser Nero soll rund 500 Statuen aus Delphi entfernt haben, um damit eigene Bauten zu schmücken. Anfang des 2. Jahrhunderts war der Schriftsteller und Philosoph Plutarch rund 20 Jahre lang Priester in Delphi und verfasste auch mehrere Schriften über das Orakel. In der Mitte des 2. Jahrhunderts stiftete Herodes Atticus ein neues Stadion, das letzte Großbauprojekt in Delphi. Das Apollon-Heiligtum blieb bis zum Verbot der heidnischen Kulte durch den römischen Kaiser Theodosius I. im Jahr 392 n. Chr. eine vielbesuchte Pilgerstätte. Die Orakeltätigkeit scheint bereits einige Jahre früher geendet zu haben. Mit dem Ende des Orakels und der Schließung des Tempels endete jedoch nicht die Existenz der Siedlung, die sich mit bescheidenen Bauten beginnend seit klassischer Zeit um das Apollon-Heiligtum herum entwickelt hatte. Ihre in römischer Zeit errichteten Häuser, die mit Bädern und Mosaiken von einem gewissen Wohlstand ihrer Besitzer zeugen, wichen im 5. Jahrhundert meist bescheideneren Bauten und Werkstätten. Die nun überwiegend christliche Bevölkerung, die von handwerklicher Produktion lebte, errichtete ab etwa 450 n. Chr. drei Basiliken. Während eine in Fundamenten erhaltene und mit Mosaiken ausgestattete Basilika aus dem 6. Jahrhundert im Bereich der modernen Ortschaft lag, eine weitere, um 550 n. Chr. errichtete im Bereich des in Richtung Kastalischer Quelle gelegenen Gymnasiums stand und dort den Platz der zuvor niedergelegten Palästra einnahm, kann die Lage der dritten, im späten 5. Jahrhundert errichteten Basilika nur vermutet werden. Möglicherweise befand sie sich als Bischofsbasilika auf der auch in christlicher Zeit noch genutzten und von Wohnbebauung freigehaltenen römischen Agora, die sich neben dem südöstlichen Eingang zum Apollon-Heiligtum befand, oder auf der Terrasse nördlich des Apollontempels. Eine Umwandlung des Tempels selbst in eine christliche Kirche kam nicht in Betracht, weil er zu dieser Zeit bereits zu großen Teilen baufällig war. Die erhaltenen Bauglieder und Skulpturen der Basilikabauten zeugen von einem gewissen Wohlstand der christlichen Bevölkerung Delphis. Im letzten Viertel des 6. Jahrhunderts ist ein plötzlicher Bevölkerungsrückgang zu verzeichnen, der entweder mit einer ersten Invasion der Slawen in Verbindung zu bringen ist oder wirtschaftliche Gründe als Ursache hatte. Anzeichen für eine umfangreiche Zerstörung im Rahmen einer Invasion fehlen jedoch, die wenigen nachgewiesenen Schäden, die mit dem Ereignis zusammenhängen könnten, wurden behoben und die Siedlung bestand noch einige Jahrzehnte fort. Auf schlichterem Niveau nahmen auch die handwerklichen Betriebe ihre Produktion wieder auf. Der jüngste Münzfund aus Delphi ist eine Prägung des Phokas aus dem Jahr 607/608, die jüngsten Keramikfunde stammen aus den ersten beiden Jahrzehnten des 7. Jahrhunderts. Dann scheint die Siedlung, die wohl keine wirtschaftliche Grundlage mehr bot, freiwillig aufgegeben worden zu sein. Gänzlich verlassen war das Areal dennoch nicht, wie ein byzantinischer Münzfund, eine Prägung des Johannes Tzimiskes aus dem 10. Jahrhundert, zeigt. Im Mittelalter entstand über den Ruinen das Dorf Kastri. 1892 begannen französische Archäologen von der École française d’Athènes mit den Ausgrabungen der antiken Ruinen, in deren Verlauf die Bewohner von Kastri an die Stelle des modernen Dorfes Delphi (heutige Kleinstadt Delfi) umgesiedelt wurden. Mythologie Delphi galt den Menschen der Antike als der Mittelpunkt der Welt. Dem Mythos zufolge ließ Zeus zwei Adler von je einem Ende der Welt aufsteigen, die sich in Delphi trafen. Der genaue Ort wurde durch den Omphalos (gr. „Nabel“) angezeigt. Die Erdmutter Gaia vereinigte sich mit dem Schlamm, der nach dem Ende des Goldenen Zeitalters von der Welt übrig blieb, und gebar Python, eine oft auch als „Drache“ bezeichnete geflügelte Schlange, die in der älteren Überlieferung weiblich, erst in späterer Zeit als männlich gedacht wurde. Python hatte hellseherische Fähigkeiten und lebte an dem Ort, der später Delphi heißen sollte. Hera, die Frau des Zeus, war eine Enkelin Gaias. Gaia prophezeite ihrer eifersüchtigen Enkelin, dass Leto, ihre Nebenbuhlerin und eine der Geliebten des Zeus, dereinst Zwillinge (Artemis und Apollon) gebären würde, die größer und stärker als alle ihre Kinder seien. Python prophezeite sich selbst, dass Apollon ihn töten würde, also zog er los, um Leto zu töten, fand sie aber nicht, da sich diese auf der Insel Delos versteckte. So gebar Leto ihre Kinder und Apollon begann Python zu jagen. Er stellte ihn bei Delphi und tötete ihn. Durch das vergossene Blut Pythons übertrugen sich dessen hellseherische Fähigkeiten auf den Ort. So wurde Delphi der Kontrolle Gaias entrissen und befand sich fortan unter dem Schutz Apollons. Orakel Das Orakel von Delphi war dem Apollon geweiht und gilt als das wichtigste Orakel im antiken Griechenland. Als Medium des Gottes diente die Pythia, die als einzige Frau den Apollon-Tempel betreten durfte. Das Amt der Priesterin geht wohl noch auf den alten Kult der Erdgöttin Gaia zurück. Die Pythia versetzte sich wahrscheinlich durch die Inhalation von ethylenhaltigen Gasen, die aus einer Erdspalte austraten, in Trance. Interpretiert wurden ihre Worte von den Oberpriestern des Apollon. Erste Pythia soll Phemonoe, Tochter Apollons oder seines Sohnes Delphos, gewesen sein. Das Orakel entwickelte einen beträchtlichen Einfluss im gesamten Griechenland und wurde vor allen wichtigen Unternehmungen (zum Beispiel Kriege, Gründung von Kolonien) befragt. Damit entwickelte es sich zu einem bedeutenden politischen Faktor. Der Historiker Herodot berichtet, dass der lydische König Krösus das Orakel von Delphi befragte, bevor er 546 v. Chr. gegen den Perserkönig Kyros II. ins Feld zog. Von der Antwort ermutigt, er werde ein großes Reich zerstören, wagte Krösus den Angriff, unterlag aber. Die Weissagung war nicht auf das Perserreich, sondern auf sein eigenes bezogen. Als apollonische Weisheiten sind die am Eingang des Apollo-Tempels angebrachten Aphorismen „Erkenne dich selbst“ () und „nichts im Übermaß“ () bekannt. Pythische Spiele Die Pythischen Spiele (auch: Delphische Spiele oder Pythien) waren nach den Olympischen Spielen die zweitwichtigsten Panhellenischen Spiele der Antike. Die Spiele wurden zunächst alle acht, ab 586 v. Chr. dann alle vier Jahre zu Ehren des pythischen Apollon ausgetragen. Ursprünglich bestanden die Spiele nur aus einem Wettkampf, dem Gesang zur Kithara. Später kamen weitere musische und gymnastische Wettkämpfe sowie Wagen- und Reiterrennen hinzu. Die musischen Disziplinen wurden im Theater, die gymnastischen im Stadion von Delphi ausgetragen. Die Pferdewettkämpfe fanden in der benachbarten Ebene von Krissa statt. Die Pythischen Spiele wurden noch zu den Zeiten Kaiser Julians begangen und haben wohl ungefähr zu derselben Zeit abgenommen, in welcher die Olympischen Spiele zu Ende gingen (etwa 394 n. Chr.). Bauten Das Ausgrabungsgelände von Delphi liegt im Osten der modernen Kleinstadt Delfi. Es erstreckt sich über 300 Höhenmeter am Hang und ist nicht zuletzt durch seine landschaftliche Schönheit für Besucher attraktiv. Unmittelbar nördlich des Archäologischen Museums Delphi befindet sich das antike Heiligtum des Apollon, und rund 700 m Luftlinie östlich des Museums liegt das antike Heiligtum der Athena Pronaia. Die wichtigsten Funde vom Ausgrabungsgelände sind heute in diesem Museum ausgestellt, darunter die Statue des Wagenlenkers von Delphi und der Omphalos. Auf dem Areal des Apollon-Heiligtums wurde eine einfache Kopie des Omphalos errichtet. Heiligtum des Apollon Das Heiligtum des Apollon nimmt ein nicht ganz regelmäßiges Rechteck von 130 × 180 Meter ein, wobei die größere Ausdehnung sich von Süd nach Nord erstreckt. Eingefasst ist dieses Temenos durch einen nach der Mitte des 6. Jahrhunderts v. Chr. errichteten und nach 480 v. Chr. erneuerten, nicht aber erweiterten Peribolos, der durch insgesamt acht Durchgänge den Zutritt gestattete. Auffälligerweise gab es keinen zentralen Zugang, und kein Torbau hob einen der Durchgänge hervor. Reste einer älteren und ein deutlich kleineres Areal einschließenden Umfassungsmauer aus dem Beginn des 6. Jahrhunderts v. Chr. deuten darauf hin, dass der ursprüngliche Haupteingang im Südwesten des Bezirkes lag, während er sich nach der Erweiterung des 6. Jahrhunderts v. Chr. im Südosten befand. Dort betrat man durch eine einfache Öffnung in der Wand die Heilige Straße, über die man zum Tempel des Apollon gelangte. Mit ihren Nebenwegen und Abzweigungen erschloss sie den heiligen Bezirk, der durch teils mächtige Terrassenmauern grob in drei Bereiche gegliedert war: Den unteren Bereich der Heiligen Straße, die von Schatzhäusern und Weihgeschenken gesäumt war, während den mittleren Bereich die Tempelterrasse mit dem zugehörigen Altar dominierte. Die Westseite des oberen Bereichs wurde vom Theater eingenommen, die Ostseite beherbergte neben weiteren Schatzhäusern die kleineren heiligen Bereiche des Dionysos und des Poseidon, den Grabbezirk des Neoptolemos und die Lesche der Knidier, das berühmte, mit den Bilder des Polygnotos ausgestattete Versammlungsgebäude der Knidier. Heilige Straße Von der Südost-Ecke ausgehend, führte die Heilige Straße zunächst nach Westen auf einen weiteren Durchgang der Temenosmauer zu, bog aber vorher nach Norden ab und erreichte den älteren Weg des ursprünglichen heiligen Bezirks. Von hier stieg sie nach Nordosten zur Terrasse des Tempels hinauf, führte am Tanzplatz unterhalb des Tempels vorbei und erreichte die Tempelterrasse an ihrer Südost-Ecke. Von dort gelangte man zu Tempel und Altar des Apollon, in dessen unmittelbarer Nähe die Schlangensäule, ein von den Griechen nach ihrem Sieg über die Perser gestiftetes Weihgeschenk, stand. Gesäumt wurde die Heilige Straße von Anathemen und den Schatzhäusern, die die griechischen Städte und Poleis zur Aufbewahrung ihrer Weihgeschenke errichteten. Im Gegensatz zu den ordentlich aufgereihten oder gruppierten Schatzhäusern anderer Heiligtümer wie in Olympia oder in Delos waren die Schatzhäuser in Delphi nur locker angeordnet. Zwar lagen sie überwiegend entlang der Heiligen Straße, doch füllten sie auch freie Flächen abseits dieses Wegs, besetzten das verfügbare Areal ungeregelt, teils besondere Plätze aus Repräsentationsgründen einnehmend, teils auf bestehende Schatzhäuser mit Konkurrenzbauten reagierend. Dazwischen waren immer wieder größere und kleinere Weihgeschenke eingestreut, bis der geringer werdende Platz dazu zwang, auch die verbliebenen Lücken zu füllen. Lediglich 13 in der antiken Überlieferung – vor allem bei Pausanias, aber auch bei Herodot, Plutarch, Appian und Strabon – für Delphi insgesamt genannten Schatzhäusern stehen die Fundamente und Baureste von 32 ausgegrabenen Schatzhausbauten allein im Bereich des Apollonheiligtums gegenüber. Sie zeugen von dem erheblichen Aufwand, der mit ihrer Stiftung verbunden war und sich in Material und Bauschmuck ausdrückte. Recht sicher identifiziert, teils anhand der Zeitstellung, teils anhand des Bildschmucks oder gar wie im Fall von Knidos der erhaltenen Weihinschrift, sind im Apollonbezirk zehn der Bauten, meist im 6. Jahrhundert v. Chr., manche im 5. Jahrhundert v. Chr., als letztes das Schatzhaus von Theben erst 346 v. Chr. errichtet. Schatzhaus von Korinth Der älteste derartige Bau (Plan Nr. XXIV) wurde um 600 v. Chr. von dem korinthischen Tyrannen Kypselos nach Delphi gestiftet und barg die von dem lydischen König Gyges geweihten Weihgeschenke aus Gold und Silber, die laut Herodot 30 Talente, also annähernd 800 Kilogramm wogen. Der Bau wird mit dem 6,50 × 13,00 Meter großen Fundament östlich des Tanzplatzes identifiziert, war langrechteckig und auf den Altar des Apollon ausgerichtet. Säulen und Anten, wie sie für spätere Schatzhäuser meist kennzeichnend sind, scheint der Bau des Kypselos noch nicht besessen zu haben. Nach dem Sturz der Tyrannis in Korinth trat die Stadt selbst als Stifterin des Schatzhauses auf, wie die erhaltene Weihinschrift beweist. Schatzhaus von Knidos Als freie Bürgerschaft stifteten laut Bauinschrift die Einwohner von Knidos um 550 v. Chr. ein Schatzhaus (Plan Nr. XXV) und Standbilder nach Delphi. Hier begegnet zum ersten Mal der für diese Kleinbauten typische Grundriss des Antentempels, doch wurden die Säulen zwischen den Anten durch Karyatiden, weibliche Stützfiguren, ersetzt. Der etwa 5,10 × 6,60 Meter große Bau ionischer Ordnung ist das älteste Marmorgebäude auf dem griechischen Festland und wurde aus parischem Marmor ausgeführt. Die im Wechsel aus flachen Bindern und hohen Läufern errichteten Wände wurden von einem umlaufenden Figurenfries bekrönt. Schatzhaus von Siphnos Ein ganz ähnlich gestaltetes Schatzhaus (Plan Nr. IV), ebenfalls mit Karyatiden versehen, weihten die Einwohner von Siphnos um das Jahr 525 v. Chr., auf dem Höhepunkt ihres Wohlstandes, wie Herodot anmerkt, aus dem Zehnten ihrer Einkünfte, die sie aus Silber- und Goldminen erwirtschafteten. Das 5,95 × 8,37 Meter große und 6,74 Meter hohe Schatzhaus, an der Südseite der Heiligen Straße an ihrem unteren Teil und somit direkt oberhalb des schroff abfallenden Terrains gelegen, erhob sich auf einem hohen Unterbau, der das Gelände ausgleichen musste. Auch dieses Schatzhaus, das anhand der erhaltenen Architekturteile fast vollständig zu rekonstruieren ist, war in ionischer Ordnung aus Marmor errichtet und reich mit Bauornamenten versehen. Deutlich ist der Versuch zu erkennen, das knidische Schatzhaus zu übertreffen. Der Figurenfries gehört zu den wenigen festdatierten Zeugnissen griechischer Plastik und bildet einen wichtigen Fixpunkt für die Datierung spätarchaischer Kunst. Eine Götterversammlung, der Kampf der Griechen gegen die Trojaner und der Kampf der Götter gegen die Giganten waren die Themen des farbig hinterlegten und bemalten Frieses. Schatzhaus von Sikyon Gegen Ende des 5. Jahrhunderts v. Chr. errichtete die Stadt Sikyon am unteren Teil der Heiligen Straße ein Schatzhaus (Plan Nr. III) in Form eines kleinen dorischen Antentempels von 6,34 × 8,48 Meter Größe. Es war bis zum Ende der Antike das erste Schatzhaus, auf das man traf, wenn man die Heilige Straße von Südosten hinaufging. In seinen Fundamenten verbaut fand man Bauteile zweier älterer Bauten: einer kleinen, um 600 v. Chr. errichteten Tholos und eines um 560 v. Chr. gebauten prostylen Schatzhauses mit einer Vorhalle von 4 × 2 Säulen. Über den 13 Säulen der Tholos lief ein Triglyphen-Metopen-Fries mit je 20 Metopen und Triglyphen, Säulen und Fries standen also in keinerlei Korrespondenz, was ein einmaliger Umstand in der bekannten dorischen Architektur der griechischen Antike ist. Die zwölf erhaltenen Metopen des verbauten Prostylos waren außergewöhnlich langgestreckt und glichen so die über dem Interkolumnium fehlenden Triglyphen aus. Themen der griechischen Mythologie waren Inhalt der Metopen, unter anderem der Raub der Europa auf dem Stier, der Rinderraub durch die Dioskuren mit den Apharetiden Lynkeus und Idas sowie die Argo, das legendäre Schiff der Argonautensage. Dessen Darstellung erstreckt sich über zwei benachbarte Metopen und zeigt das Schiff in Seitenansicht, seine Helden aber in Frontansicht. Unter den Helden findet sich die älteste bekannte Darstellung des Orpheus, der sich durch seine Kithara zu erkennen gibt. Schatzhaus von Athen Das heute rekonstruierte Schatzhaus von Athen (Plan Nr. XI) wurde in der Zeit zwischen 510 und 490 v. Chr. in der Form eines Antentempels im dorischen Baustil erbaut. Halle der Athener Athen war nicht nur mit einem Schatzhaus in Delphi vertreten. An einer der prominentesten Stellen des Apollon-Heiligtums, am kultischen Tanzplatz beim Ende der Heiligen Straße errichteten sie nach dem Ende der Perserkriege im Jahr 478 v. Chr. aus der Kriegsbeute eine Säulenhalle, die sich an die polygonale Stützmauer der Tempelterrasse anlehnte. Auf dem dreistufigen Unterbau aus grauem lokalen Stein waren Anlass und Zweck der Stiftung inschriftlich vermerkt: Die Halle sollte die nach Delphi geweihten Waffen der Feinde aufnehmen. In der lichten Halle, zwischen deren Seitenwänden sieben ionische Marmorsäulen ein einfaches hölzernes Gebälk trugen, wurden die von den Persern erbeuteten Stücke auf einem Podest vor der Rückwand für alle sichtbar ausgestellt. Die bei einer Jochweite von 3,58 Meter nur 39 Zentimeter starken Säulen ruhten erstmals auf einer frühen Form der attischen Basis, die sich aus zwei Wulsten mit dazwischengeschobenem dritten Glied zusammensetzte. War dieses dritte Glied in der klassischen Lösung im Querschnitt eine Trochilus genannte Hohlkehle, so ist es an der Halle der Athener als S-förmige Welle gestaltet. Apollon-Tempel Weit in die mythische Vorzeit wusste die Lokalsage in Delphi die ersten Tempelbauten für Apollon zu versetzen. Ihre Abfolge und ihr Schicksal wurden vor allem in Pindars nur fragmentarisch erhaltenem achten Paian und darauf aufbauend bei Pausanias überliefert. Demnach bestand ein erster Tempel aus den Zweigen des im thessalischen Tempe-Tal geschnittenen Lorbeer. Diesem Bau folgte ein von Bienen aus Bienenwachs und Federn errichteter Tempel, den der Wind in das Land der Hyperboreer davontrug. Er wurde durch einen Tempel aus Bronze ersetzt, der von Hephaistos und Athena errichtet wurde, aber durch Erdbeben und Feuer vernichtet wurde. Mit dem ersten Steinbau wird der Mythos halb verlassen. Im Homerischen Hymnos an Apollon bereitete der Gott das Fundament vor, während die mythischen Architekten Trophonios und Agamedes die „steinerne Schwelle“ – möglicherweise die Orthostatenschicht – des Baus ausführten. Laut Pausanias wurde dieser Bau im ersten Jahr der 58. Olympiade, also 548 v. Chr. durch einen Brand zerstört. Mit aller Vorsicht werden ein größeres Fragment eines dorischen Kapitells und zwei Säulentrommeln von bis zu 97 Zentimetern Durchmesser auf diesen 548 v. Chr. abgebrannten Tempel bezogen, der als kaum vor 600 v. Chr. errichteter Peripteros zu denken ist. Nun wurde mit finanziellen Mitteln, die aus ganz Griechenland nach Delphi flossen, ein großer Neubau in Angriff genommen. Zunächst wurde die Terrasse mit ihrer mächtigen Polygonalmauer angelegt, darauf dann zwischen 525 und 505 v. Chr. der Tempel ausgeführt. Der im Stylobat rund 21,70 × 58,20 Meter messende Peripteros dorischer Ordnung besaß 6 × 15 Säulen. Der Bau schritt von Westen nach Osten fort und so wurde nach einer Planänderung die Ostfront aus parischem Marmor ausgeführt, während die übrigen Bauteile aus Poros gefertigt waren. Diese Änderung ging laut Herodot auf den Alkmaioniden Kleisthenes zurück, der auch die damit verbundenen Kosten übernahm. Nachdem auch dieser Alkmaionidentempel 373/72 v. Chr. durch ein Erdbeben und einen Felssturz zerstört worden war, vergrub man mit großer Sorgfalt dessen Giebelfiguren. Ein begonnener Neubau verzögerte sich, da die Phoker die bereitgestellten Gelder im Vorfeld des Dritten Heiligen Kriegs geraubt hatten. Erst nach Ende des Krieges 346 v. Chr. konnten die Arbeiten, nun aus den Strafgeldern der Phoker finanziert, weitergeführt und um 320 v. Chr. abgeschlossen werden. Von diesem Tempel, dem Sitz des Orakels, wurden nach Ende der Ausgrabungen sechs der ursprünglich 38 dorischen Säulen wieder aufgerichtet. Für seine Zeit ist seine Proportion von 6 Säulen auf den Fronten und 15 auf den Langseiten ungewöhnlich langgestreckt, was sich aus der Übernahme des Grundrisses des Vorgängerbaues aus dem 6. Jahrhundert v. Chr. erklärt. Im Adyton, dem Allerheiligsten des Tempels, saß die Pythia auf einem Dreifuß über einer Erdspalte, aus der ethylenhaltige Gase austraten. Die Dämpfe versetzten die Pythia in einen Trancezustand, in dem sie die Orakelsprüche des Gottes verkündete, welche dann von Priestern den ratsuchenden Gläubigen übermittelt wurden. Theater Am nördlichen Rand des Apollon-Heiligtums liegt das Theater, das etwa 5.000 Zuschauern Platz bot. In dem Bau aus dem 4. oder 3. Jahrhundert v. Chr. fand der musische Teil der Pythischen Spiele statt. Die sportlichen Wettkämpfe wurden im noch weiter hangaufwärts gelegenen Stadion ausgetragen. Heiligtum der Athena Pronaia Etwa 500 m südöstlich des Apollon-Heiligtums und jenseits der kastalischen Schlucht befindet sich das etwas tiefer gelegene Heiligtum der Athena Pronaia („Athena vor dem Tempel“). Die hierfür genutzte und modern „Marmaria“ genannte Terrasse ist 150 Meter breit, aber nur 40 Meter tief. Alle auf ihr befindlichen Gebäude waren nach Süden, zum Tal hin ausgerichtet. Unter dem ältesten Tempel des Areals fand man über 200 Tonfiguren einer weiblichen Gottheit, die hier bereits im 2. Jahrtausend v. Chr. verehrt wurde. Im 8. oder 7. Jahrhundert wurde dieser heilige Bereich erstmals mit einer sauber gefugten Bruchsteinmauer gefasst. Der Weg von der Marmaria zum Apollon-Heiligtum führte an der Kastalischen Quelle vorbei, aus der zu trinken nach antiker Sage die Dichtergabe verlieh. Athenatempel Gegen Ende des 7. Jahrhunderts v. Chr. errichtete man einen ersten Athenatempel, dessen Reste in den Fundamenten seines Nachfolgers verbaut wurden. Demnach handelte es sich um einen Peripteros dorischer Ordnung, von dem 12 Kapitelle und 10 Säulentrommeln aus Poros gefunden wurden. Die nur etwa 3,10 Meter hohen, sehr schlanken Säulen hatten 16 Kanneluren und trugen weit ausladende, flache dorische Kapitelle. Der Tempel hatte rund 100 Jahre Bestand, bevor er gegen Ende des 6. Jahrhunderts v. Chr. und wohl im Anschluss an die Fertigstellung des Alkmaionidentempels durch einen Neubau ersetzt wurde. Dieser zweite Athenatempel maß im Stylobat 13,25 × 27,46 Meter, war also 1:2 proportioniert, und besaß entsprechend 6 × 12 Säulen. Im Gegensatz zu anderen dorischen Peripteroi seiner Zeit verzichtete man bei seinem Bau auf einen Opisthodom, eine sonst übliche Rückhalle, was den beengten Verhältnissen auf der Terrasse geschuldet sein mag. Der zugehörige Altar befand sich auf der östlichen Langseite des Tempels. Im 4. Jahrhundert v. Chr. wurde der Tempel durch einen Felssturz schwer beschädigt, blieb aber als Ruine, die noch Pausanias sah, erhalten. Ein neuerlicher Felssturz im Jahr 1905 brachte 12 der zu diesem Zeitpunkt noch stehenden 15 Säulen zum Einsturz und verschob das gesamte Fundament. In der Folge wurden die verbliebenen Säulen ebenfalls niedergelegt. Einen dritten Athenatempel errichtete man nun an weniger gefährdeter Stelle im Westen der Terrasse und überbaute dafür ein bislang nicht erfolgreich gedeutetes Gebäude mit zwei Cellae in diesem Bereich. Der aus dem späten 4. Jahrhundert v. Chr. stammende und in lokalem Kalkstein ausgeführte Tempel war kein Peripteros, sondern ein Prostylos mit sechssäuliger Front, hinter der sich auf ganzer Breite der Pronaos öffnete. Zur Cella vermittelte keine geschlossene Türwand, vielmehr wurden hier zwei mit den Wänden verbundene Pfeiler und zwei Halbsäulen konstruiert und die seitlichen Öffnungen mit Gittern verschlossen, während die mittlere Öffnung eine Tür aufnahm. Ein exedra­ähnliches Statuenpostament nahm – wohl nachträglich eingebaut – die Rückwand der Cella ein und wurde mit kurzen Fortsätzen entlang der Längswände in den Raum fortgeführt. Tholos Östlich des dritten Tempels stand die Tholos, ein von dem Architekten Theodoros von Phokaia um 380 v. Chr. entworfener Rundbau, zu dem Theodoros auch ein bei Vitruv genanntes theoretisches Werk schrieb. Der für seine Zeit außergewöhnliche Rundbau, ganz aus pentelischem Marmor ausgeführt, lediglich der Cellaboden und der Sockel unter der inneren Säulenstellung waren aus dunklem, eleusinischen Kalkstein, hatte im Stylobat einen Durchmesser von 13,50 Meter. Der Durchmesser des zylindrischen Baukörpers der Cella betrug 8,60 Meter. Zwanzig Säulen dorischer Ordnung mit je 20 Kanneluren bildeten dessen Peristase. Ihnen antworteten im Inneren neun Säulen korinthischer Ordnung, eine zehnte Säulenstellung fiel wegen der Türöffnung weg. In dem radialsymmetrisch angelegten Entwurf korrespondierten somit die korinthischen Säulen mit jedem zweiten Interkolumnium der Peristase. Deren knapp 6 Meter hohe Säulen trugen einen Triglyphen-Metopen-Fries, von dessen einst 40 Metopen nur wenige Reste mit Darstellungen von Kentauren und Amazonen erhalten sind. Auch die Cellawand wurde von einem umlaufenden Triglyphon mit 40 Metopen bekrönt. Als Besonderheit wies die Tholos eine doppelte Sima als Abschluss des Gebälkes auf. Der Bau eröffnete eine kleine Gruppe besonders kostbarer Heiligtumsbauten, alle auf dem Prinzip des Rundbaus beruhend und im 4. Jahrhundert v. Chr. errichtet, die mit der Tholos von Epidauros und dem Philippeion in Olympia zwei weitere, außergewöhnliche Vertreter fand. Die Funktion der Tholos in Delphi ist ungeklärt. Drei der einst 20 dorischen Säulen wurden 1938 wieder aufgestellt. Schatzhäuser Zwischen Athenatempel II und Tholos befinden sich die Fundamente zweier Schatzhäuser in Form kleiner Antentempel, eines ionischen und eines dorischen. Das ältere westliche Schatzhaus wird wegen seiner ionischen Bauformen mit der Stadt Massilia in Verbindung gebracht. Die Wände des kleinen, aus parischem Marmor errichtete Baus ruhten auf einem wulstartigen, horizontal kannelierten Polster. Die beiden Säulen zwischen den Anten standen auf ephesischen Basen und trugen äolische Kapitelle, die aus einem Kranz von 22 überhängenden, schmalen Blättern gebildet wurden. Das Gebälk besaß einen Figurenfries. Lotos-Palmetten-Friese schmückten die Unterseite von Geison und Sima. Den Bauformen nach wurde das Schatzhaus um 525 v. Chr. errichtet. Das östlich gelegene, dorische Schatzhaus wird aufgrund seiner großen Ähnlichkeit mit dem Schatzhaus der Athener im Apollon-Heiligtum ebenfalls mit Athen verbunden. Seine Bauformen lassen an eine Entstehung im früheren 5. Jahrhundert v. Chr. denken, da der Bau mit seinen verkürzten Antenjochen und insbesondere dem ausgeglicheneren Triglyphen-Metopen-Fries fortschrittlichere Elemente aufweist. Die „Rätsel der Marmaria“ Ein bis heute ungelöstes archäologisches Problem ist mit der Beschreibung des Athenaheiligtums durch Pausanias verbunden und wird als „Rätsel der Marmaria“ bezeichnet. Pausanias beginnt seinen Rundgang wie folgt: Weitere Gebäude erwähnt Pausanias im Zusammenhang mit der Marmaria nicht. Diesen vier Bauten des Pausanias stehen nun wenigstens fünf prominente Bauten im archäologischen Befund gegenüber, zählt man den möglicherweise als Priesterwohnung aufzufassenden Bau ganz im Westen hinzu, sogar sechs. Welche Gebäude sah Pausanias und von welchen hatte er keine Kenntnis? Erwähnt er die Tholos? Fasst er die Schatzhäuser zu einem Bau zusammen, kannte er nur noch eines oder keines der Schatzhäuser? Und kam er überhaupt von Osten oder nicht vielmehr von Westen zur Marmaria? Ist seine Beschreibung von West nach Ost zu lesen? Für alle Ansätze wurden Vorschläge gemacht, ohne dass bislang eine akzeptierte Lösung des Rätsels vorliegt. Mit entsprechender Vorsicht sind daher die Benennungen der verschiedenen Gebäude der Marmaria zu betrachten und Jean-Pierre Michaud verzichtet in seiner Monographie zum sogenannten Athenatempel III darauf, den westlichen „temple en calcaire“ als Athenatempel anzusprechen. Literatur Jean-François Bommelaer: Guide de Delphes. Le site. Boccard, Paris 1991, ISBN 2-86958-037-1. Michael Maaß: Das antike Delphi. Orakel, Schätze und Monumente. Theiss, Stuttgart 1997, ISBN 3-8062-1321-6. Marion Giebel: Das Orakel von Delphi. Geschichte und Texte. Reclam, Stuttgart 2001, ISBN 3-15-018122-4. Josef Wiesehöfer: Die Geheimnisse der Pythia. Orakel und das Wissen der reisenden Weisen. In: Karl-Joachim Hölkeskamp, Elke Stein-Hölkeskamp (Hrsg.): Erinnerungsorte der Antike. Die griechische Welt. C. H. Beck, München 2010, ISBN 978-3-406-60496-6, S. 336–352. Jean-Marc Luce (Hrsg.): Delphes, sa cité, sa région, ses relations internationales. Presses Universitaires du Mirail, Toulouse 2012, ISBN 978-2-8107-0192-6. Anne Jacquemin, Dominique Mulliez, Georges Rougemont: Choix d'inscriptions de Delphes, traduites et commentées (= Études Épigraphiques. Band 5). École Française d'Athènes, Athen 2012, ISBN 978-2-86958-248-4. Balbina Bäbler, Heinz-Günther Nesselrath (Hrsg.): Delphi. Apollons Orakel in der Welt der Antike (= Civitatum orbis Mediterranei studia. Band 6). Mohr Siebeck, Tübingen 2021, ISBN 978-3-16-157570-9 (handbuchartiger Sammelband). Weblinks Anmerkungen Ort in Mittelgriechenland Archäologischer Fundplatz in Griechenland Archäologischer Fundplatz in Europa Antike griechische Stadt Welterbestätte in Europa Welterbestätte in Griechenland Weltkulturerbestätte Kultort der Athene Kultort des Apollon
Q75459
133.083204
119916
https://de.wikipedia.org/wiki/Meeresstr%C3%B6mung
Meeresströmung
Als Meeresströmungen (engl. current, Strom) bezeichnet man die systemimmanenten waagerechten und senkrechten Transporte von Wassermassen in dem Weltmeer bzw. Ozeanen: Sie werden u. a. durch die Erdrotation, Gezeiten, unterschiedliche Wasserdichten aufgrund unterschiedlicher Salzgehalte und Wassertemperaturen sowie Winde („Driftströmung“) beeinflusst bzw. verursacht. Von großer Bedeutung ist dabei die „Thermohaline Zirkulation“. (Kleinräumigere) Wasserwirbel (engl. eddy) sind Teile bzw. Auswirkungen der Meeresströmungen, während diese wiederum Teile der „großen ozeanischen Wirbel“ sind (engl. gyre). Definition Meeresströmungen sind Massenströme des Meerwassers. Dabei gibt es sowohl regionale und in kurzen Perioden wechselnde wie die Gezeitenströme, als auch kontinuierliche Wasserbewegungen globalen Ausmaßes wie den Golfstrom. Diese großräumigen Meeresströmungen werden zusammen auch als globales Förderband bezeichnet. Zahlreiche Antriebseffekte und Einflussgrößen bestimmen den Transport von Wassermassen in den Ozeanen: Die Bewegungen in den oberflächennahen Schichten sind oft schon lange bekannt, die in den tieferen Schichten Objekt jüngerer Forschungen. Im Normalfall handelt es sich hierbei um thermohalin bedingte Strömungen. Diese sind in der Regel und besonders bei den größeren Strömungsmustern des globalen Förderbandes recht verlässlich in ihrem Auftreten, können jedoch auch bedingt durch meteorologische und ozeanologische Einflussfaktoren variieren. Meist folgt diese Varianz einem Rhythmus, der sich den Jahreszeiten anpasst und damit von der Variabilität der Sonneneinstrahlung abhängt. Entstehung Die Strömungen werden hauptsächlich durch Temperaturunterschiede und unterschiedliche Salzgehalte des Meerwassers (je salzhaltiger das Wasser ist, desto größer ist seine Dichte) erzeugt, die von der Erwärmung von Wassermassen, durch die Sonneneinstrahlung und ihrer Abkühlung herrühren. Allerdings liefert auch die Windreibung an der Oberfläche des Meeres (Ekman-Spirale, Upwelling) einen entscheidenden Beitrag. Die Unterschiede der Wasserdichte wirken bei vertikalen Strömungen als antreibend. Der örtliche Verlauf der Meeresströmungen wird, außer von den strömungserzeugenden Kräften, durch die sekundär wirkende Verteilung der Landmassen, die Topographie (Relief) des Meeresbodens, die Corioliskraft, die Zentrifugalkraft bei Rotationsbewegungen sowie die Reibungskraft beeinflusst. Die wichtigsten Größen sind hierbei die Wassertemperatur (Meeresoberflächentemperatur), die Salinität und hieraus resultierend die Dichte des Wassers. Strömungsarten Meeresströmungen werden anhand verschiedener Merkmale unterschieden: Zeitliche Dauer ständig, periodisch, zeitweilig Entstehung und Ursache Brandungsrückstrom (siehe Brandung) Friktions- bzw. Driftströmungen, verursacht von der Reibung an der Grenzschicht Wasser/Luft Gezeitenstrom (siehe Gezeiten) Gravitationsströmungen (siehe Gravitation) Kompensations- bzw. Ausgleichströmungen Korkenzieherströmung, verursacht durch den Wind im Verbund mit der Coriolis-Kraft Temperatur und Salzgehalt warm/kalt bzw. salzig/salzarm Lage bzw. Vorkommen Am Boden (Gewässersohle) An der Küste An der Oberfläche In der Tiefe Die Abgrenzungen dieser Einteilung überschneiden sich teilweise: in der Regel sind die großen Meeresströmungen eine Kombination aus verschiedensten Einflüssen. Großräumige Meeresströmungen Die „großen ozeanischen Wirbel“ (engl. gyre, von gyrate, rotieren, kreiseln, wirbeln, „Meereswirbel“) sind: Indian Ocean Gyre: „Agulhasstrom“ North Atlantic Gyre Nordpazifikwirbel (North Pacific Gyre) South Atlantic Gyre South Pacific Gyre Wasserwirbel Im Randbereich der Meeresströmungen kommt es zu Turbulenzen, wobei unter der Mitwirkung der Corioliskraft Wirbel (englisch: eddy) mit einem Durchmesser zwischen 20 und 200 km entstehen: Sie können einige Wochen bis zu mehreren Monaten bestehen und dabei Distanzen von vielen hundert Kilometern zurücklegen. Mit den Wirbeln wird Meerwasser aus dem Entstehungsgebiet eingeschlossen; so kann beispielsweise warmes Golfstrom-Wasser und salziges, schweres Mittelmeer-Wasser, welches über die Gibraltarschwelle in den Atlantik strömt, in der Fläche verteilt werden. Ein solcher salzreicher Wasserwirbel aus dem Mittelmeer (ein Meddy – Mediterranean eddy) befindet sich typischerweise ungefähr 600 m unterhalb der Meeresoberfläche und hat einen Durchmesser von ca. 100 km. Kalte und warme Wasserwirbel können mit Satelliten beobachtet werden, da sie sich durch Änderungen in der Höhe des Meeresspiegels bemerkbar machen. Ebenfalls wurde beobachtet, dass Wasserwirbel, bei denen kaltes, nährstoffreiches Meerwasser aus der Tiefe an die Meeresoberfläche gefördert wird, wie ein kurzzeitig bestehendes Auftriebsgebiet wirken: Dadurch vermehrt sich dort explosionsartig Phytoplankton, was ebenfalls mit Satelliten beobachtet werden kann. Bis vor Kurzem unbekannte, spontan auftretende sowie rasch um die eigene Achse rotierende, temporäre Meereswirbel mit einem Radius von wenigen Kilometern in der Ostsee werden seit Sommer 2016 im Zuge eines umfangreichen Forschungsprojekts des Helmholtz-Zentrums Geesthacht untersucht („Expedition Uhrwerk Ozean“). Bedeutung der Meeresströmungen Klima Auf das Klima können Meeresströmungen großen Einfluss haben. Der IPCC AR5 Report stellt fest, dass mit hoher Wahrscheinlichkeit 90 % der zusätzlichen Energie-Ansammlung durch die globale Erwärmung von 1971 bis 2010 vom Ozean aufgenommen wurden. Diese Beobachtung basiert auf La-Niña-Jahren, wenn durch wechselnde Windzirkulation vermehrt wärmere Wassermassen über Meeresströmungen in tiefere Meeresschichten gelangen, was den Wärmeinhalt der Ozeane beeinflusst. Dies wird von Klimatologen im Zusammenhang mit dem anthropogenen Klimawandel erforscht. Abhängig von den Meeresströmungen wachsen z. B. an der Südwestküste von England Palmen. Im Winter liegt die Temperatur hier meist über dem Gefrierpunkt, und damit deutlich höher als in anderen Gegenden auf ähnlichen Breitengraden: Der warme Golfstrom transportiert große Energiemengen und heizt insbesondere die angeströmten Küstenregionen Europas auf. Das warme Meerwasser neigt zu Verdunstung, die feuchte Luft regnet den Wasserdampfgehalt über der kälteren Landmasse wieder ab oder, wenn sie an Bergen hochsteigt und dabei abkühlt. Über Verdunstungskälte und Kondensationsenthalpie kommt es zu einem Transfer von thermischer Energie, soweit die feuchte Luft landeinwärts treibt und dort Niederschlag verursacht. Auch die Westküste Norwegens ist im Winter weitgehend eisfrei, während die auf gleichen Breitengraden liegende Ostküste Grönlands (die vom Golfstrom kaum getroffen wird) verbreitet Eisberge und Gletscher aufweist. Ebenfalls auf den Golfstrom zurückzuführen ist das relativ milde Klima von Island. Im Vergleich zu dem kalten und schneereichen Klima Nordrusslands wird deutlich, wie groß die durch warme Meeresströmungen verursachten klimatischen Unterschiede sein können. Durch kalte Meeresströmungen können sich andererseits auch deutlich rauere Gegenden bilden: So wird z. B. die Wüste Atacama durch den Humboldtstrom und die Namib durch den Benguelastrom verursacht. Grundlage hierfür ist die niedrige Oberflächentemperatur des in der Regel arktischen oder antarktischen Wassers. Dies verursacht meist vorzeitige Kondensation der Luftfeuchtigkeit und schränkt die Konvektion ein, weshalb in den angrenzenden Küstenregionen wenig Niederschlag fällt. Teilweise kann es zu jahrzehntelangen Trockenperioden kommen. Andererseits gibt es sehr häufig Nebel, was einige Lebewesen in diesen Regionen gezielt zur Deckung ihres Wasserbedarfs ausnutzen (siehe Nebelkondensation). Mythos Der altgriechische Begriff („Ozean“) bezeichnet in der Übersetzung den die Erdscheibe umfließende Weltstrom und wird in der griechischen Antike als Gott Okeanos personifiziert: Er ist bei Homer (ca. 800 v. Chr.) sowohl Ursprung der Welt als auch der Strom, der die Welt umfließt und vom Meer unterschieden wird. Zugleich ist er Ursprung der Götter sowie aller Flüsse, Meere, Quellen und Brunnen, von denen jedoch nur Eurynome und Perse namentlich genannt werden. Seine Gattin ist die Meeresgöttin Tethys. Im zwischen dem 13. bis 15. Jahrhundert schriftlich fixierten sulawesischen La Galigo-Epos bewegt „der große Meereswirbel“ alle Wasser der Erde. Transport Energietransport (Wärme vom Äquator zu den Polen) Ablation: Abtragung von Sedimenten durch Meeresströmungen Anlandung: von Sediment – zusammen mit Wellenbewegung und Wind (z. B. Bungeland; Sandbank, Watt, Nehrung) Verteilung von im Wasser enthaltenen, auch aufschwimmenden Stoffen, die sowohl natürlichen als auch anthropogenen Ursprungs sein können, zum Beispiel Sauerstoff, Nährstoffe, Plankton, Pollen, aber auch radioaktive Stoffe, Öl oder Plastikmüll. Dem Nordpazifikwirbel brachte die großflächige Ansammlung und Rotation von Plastikmüll und Mikroplastik den Spitznamen Great Pacific Garbage Patch (großer pazifischer Müllstrudel) ein; traurige Berühmtheit erlangten die „Friendly Floatees“ genannten Plastiktiere, die in diesem Strudel trieben. Vereinfachung von Navigation und Schifffahrt Eisdrift Dämpfung der Erdrotation über Corioliskraft und Reibung Risiken Durch die mit der globalen Erwärmung einhergehende zunehmende Eisschmelze an den Polkappen verändert sich mit dem zusätzlichen Süßwassereintrag der Salzgehalt des Meerwassers vor Ort. Damit ändert sich dort auch die thermohaline Dynamik: die Bildung antarktischen Boden- wie des nordatlantischen Tiefenwasser sind „Motoren“ der thermohalinen Zirkulation. Siehe auch Jetstream Weblinks Geo Data Zone, geodz.com: Das ökologische Gleichgewicht der Meeresströmungen Aufzählung aller Meeresströmungen, wissenschaftliche Literatur, farbige Gesamtdarstellung NASA, nasasearch.nasa.gov: ocean currents video University of Miami, oceancurrents.rsmas.miami.edu: Ocean Surface Currents University of South Carolina, What are eddies? Bildungswiki Klimawandel, bildungsserver.de: Meeresströmungen (und Klima) scinexx.de: Meeresströmungen – Schlüssel zum Klima der Zukunft Einzelnachweise Klimatologie
Q129558
281.574504
31135
https://de.wikipedia.org/wiki/Serben
Serben
Serben (, altserbisch: ) sind eine südslawische Ethnie, deren Angehörige vorwiegend in Serbien, Bosnien und Herzegowina, Kroatien, Montenegro, Nordmazedonien, Slowenien und im Kosovo leben. Sie sprechen mehrheitlich die serbische Sprache, eine serbokroatische Standardvarietät, vor allem in Bosnien und Herzegowina, Kroatien und Montenegro deren ijekavische Varietät. Eine Anzahl von Serben lebt heute zudem auch als Diaspora im deutschsprachigen Raum und Schweden, aber auch in Nordamerika und Ozeanien. Ethnonym Etymologie Die Bezeichnung Serben leitete sich wahrscheinlich von einem indoeuropäischen Wortstamm „srp“ her. Dieser bedeutete möglicherweise „Verwandter, Verbündeter“ oder „zum gleichen Stamm (Sippe) gehörender“. Dazu würden z. B. das polnische Pasierb bzw. Pasierbica und das slowenische Paserbok für Halbbruder, Stiefsohn, Halbschwester, Stieftochter gehören, ebenfalls das ukrainische priserbiti sich anschließen. Verwandt wäre auch das russische serbat (сёрбать) für säugen und das lateinische sorbere für fließen, trinken. Die älteren Bezeichnungen der Sorben in der Lausitz dürften nach Heinz Schuster-Šewc Sorab oder Surb gelautet haben. Je nach Mundart wurde Serb um Bautzen bis Cottbus, Sarb nördlich von Cottbus bis nach Köpenick und Sorb um Dresden und westlich der Elbe ausgesprochen. Der Name sei zudem der Herkunft nach identisch mit dem der in Südosteuropa lebenden Serben. Zahlreiche deutsche Ortsnamen wie Zscherben, Serbitz, Zerben, Serba, Sirbis, Serbitz, Altscherbitz oder Zerbst enthalten Hinweise auf Sorben/Serben und zeugen damit von der weit über 1000 Jahre währenden Präsenz dieses Ethnonyms. Weiterhin ist der Name in verschiedenen Varianten als deutscher oder sorbischer Familienname greifbar, so z. B. als Serbe, Serba, Serbin, Sorbe, Sarb, Sirb, Zerbe usw. Demnach versuchten sich verschiedene Ethnologen daran eine abschließende Etymologie zum Ethnonym zu entwickeln. Historien Ptolemaios Die Geographie des Claudius Ptolemäus bezeichnet mit Σέρβοι (transkr. Serboi), nach Quelle Serber, einen Stamm im asiatischen Sarmatien, der am Unterlauf der Wolga zwischen dem Keraunischen und Hippischen Gebirge neben den Orinaiern und Valern siedelte. Hinweise, dass diese Serboi mit den Slawen etwas gemeinsam hatten, gibt es zurzeit keine. Weiterhin erwähnt Ptol. eine Stadt Σερβίτιον (Serbition) bzw. Σέρβινου (transkr. Serbinou, Serbinos ), das in lateinischen Übersetzungen zu Servitium umgewandelt wurde. Letztere Deutungen der Koordinaten verschieben die Stadt aus dem heutigen Ungarn nach Gradiška im Nordwesten Bosniens. Verschiedene Bezeichnungen für die Serben Die Serben wurden im Mittelalter unterschiedlich benannt. Eine Eigenbezeichnung der Serben bzw. ihrer Herrschaft war Srblje, u. a. im De administrando Imperio als Serbloi (Σέρβλοι) wiedergegeben. Teilweise wurden sie auch Raszier (serb. Rašani/Rašćani, dt. Raschani/Raschtschani oder latinisiert Rassani) genannt, benannt nach dem in ihrer Herrschaft zentral gelegenen Gebiet Raška, das in lateinischen Schriftstücken auch als Rassa erscheint mit der Burg Ras in dessen Zentrum. Eine bemerkenswerte Bezeichnung oströmischer Chronisten für die Serben ist jedoch Triballer (Τριβαλλῶν). Sich auf die aus dem 5. Jahrhundert vor Christi Geburt durch den Vater der Geschichte Herodot erstmals festgehaltene Erwähnung dieser Triballer beziehend, der in seinen Historien eine Triballische Ebene (πεδίον τὸ Τριβαλλικὸν) erwähnt, die teilweise als Amselfeld (Kosovo polje) oder als Morawatal identifiziert wird, ist diese Bezeichnung für die Serben bis ins späte Mittelalter in Byzanz ganz und gar üblich. Nach byzantinischen Quellen z. B. ließ sich Stefan Uroš IV. Dušan zum Kaiser der Romäer und Triballer ausrufen (βασιλέα έαυτὸν ἁνηγόρευε ῾Ρωμαίων καὶ Τριβαλλῶν). Im 15. Jahrhundert schreibt Laonikos Chalkokondyles über diese Triballer, womit die Serben gemeint waren, sie seien der älteste und größte Stamm des ganzen Erdenkreises. Derart „superativische“ Bezeichnungen werden den Serben von verschiedenen mittelalterlichen Schriftstellern nachgesagt. Das zeigt die Tendenz dieser Chronisten die Serben mit den Slawen als Ganzes gleichzusetzen, als slawischen Urstamm bzw. Überbegriff für alle Slawen. Während der Türkenkriege kommt es zu zahllosen Flüchtlingsströmen aus den serbischen Fürstentümern ins Habsburgerland. Im deutschen und ungarischen Sprachraum entwickelt sich der Name Raitzen ab dem 18. Jahrhundert als Synonym für den Namen der christlich-orthodoxen Serben, und umgekehrt, da dieser von den Serben auch selbst getragen wurde. Zuerst diente der Name dazu, die Neuankömmlinge aus dem griechisch-orientalischen Gebiet von den damals (griechisch-/römisch-) katholischen bzw. alteingesessenen Schokatzen und Bunjewatzen zu unterscheiden. Bunjewatzen sind heute nur in Serbien eine anerkannte Minderheit. Die Zuordnung der Bunjewatzen zu einer anderen Volksgruppe ist umstritten. Der Name Raitzen geht wohl auf die Raschani (lat. Rassani) zurück. Die christlich-orthodoxen Serben wurden somit nördlich der Donau mitunter als Raitzen bzw. Raszier, Griechen, Altgläubige bzw. Starowizi, die Katholischen als Unierte, Schokatzen und Bunjewatzen bezeichnet. Das den Ortsnamen in Ungarn häufig vorgesetzte Rácz bezeugt den serbischen Ursprung. Serben und Sorben Zweifelsfrei ist die Übereinstimmung des Namens der Serben mit dem Namen der Sorben, woraus auch die Theorie abgeleitet wird, dass die Serben und Sorben vom selben Stamm abkommen. Hierzu sind die Wurzeln der erwähnten Namen bei Cosmas von Prag (Bezeichnung Zribia für die Mark Meißen, Zribin) und in den Chroniken des Fredegar aufschlussreiche Beispiele: Die Annales regni Francorum unterscheiden die Serben der Region Dalmatia und die Sorben in Mitteleuropa namentlich nicht voneinander. Sie werden als Sorabi bezeichnet. Nach Konstantin Jireček ist das /a/ in Sorabi das Resultat der Umschreibung eines vokalischen /r/, das im Kirchensl. mit /rъ/ umschrieben wird. Dass es sich beim Namen Sorabi um keine Sammelbezeichnung verschiedener Slawenvölker handelt, stützt die für den November 822 festgehaltene Bemerkung, die die Gesandten der Slawen aufzählt, die sich am Hof des Ludwigs des Frommen einfinden, darunter die Abodriten, Serben bzw. Sorben, Wilzen, Böhmer, Morawier, Praedecenti, wie die Awaren des Pannonien. Auch Konstantin Jireček, wie weitere slawische Slawisten sprechen von den Lausitzer Serben. Annalen des Königreichs der Franken Annales regni Francorum Hier scheint die erste Erwähnung des Ethnonyms im Kontext Südosteuropas für das Jahr 822 auf. Darin ist die Rede von Soraben, die einen großen Teil der Provinz Dalmatia besiedelten ((…) Sorabos, quae natio magnam Dalmatiae partem obtinere dicitur, (…)). An anderer Stelle für das Jahr 823 wird Ljudewit (Ljudević) erwähnt, der böswillig die Serben verlässt. (…) interitu Liudewiti, quod relictis Sorabis, (…) Die übrigen Eintragungen werden den Lausitzer Serben (Sorben, Autonym: Serby, Serbja; Xenonym: Wenden) zugeordnet, die in den Annalen, wie die Serben, ebenso als Sorabi bezeichnet werden: Jahr 806: Et inde post non multos dies Aquasgrani veniens Karlum filium suum in terram Sclavorum, qui dicuntur Sorabi, qui sedent super Albim fluvium, (…) Jahr 816: Hieme transacta Saxones et orientales Franci expeditionem in Sorabos Sclavos, qui dicto audientes non erant, facere iussi imperata strenue compleverunt et contumacium audaciam non magno labore compresserunt. Jahr 822: Item in parte orientali Saxoniae, quae Sorabo*rum finibus contigua est, in quodam deserto loco iuxta lacum, qui dicitur Arnseo (Arendsee), in modum aggeris terra intumuit et limitem unius leugae longitudine porrectum sub unius noctis spatio absque humani operis molimine ad instar valli subrexit. Jahr 822: In quo conventu omnium orientalium Sclavorum, id est Abodritorum, Soraborum, Wilzorum, Beheimorum, Marvanorum, Praedenecentorum, et in Pannonia residentium Abarum legationes cum muneribus ad se directas audivit. Jahr 826: Accusabatur et Tunglo, unus de Soraborum primoribus, quod et ipse dicto audiens non esset. Bayerischer Chronograph Für das 9. Jahrhundert beschreibt Geographus Bavarus die Surbi als einen großen slawischen Stamm nördlich der Donau, der 50 Civitates besaß. Im 2. Teil schreibt er: Zeriuani, quod tantum est regnum, ut ex eo cuncte genetes Sclauorum exorte sint et originem, sicut affirmant, ducant (Zerivani [teilweise als Serben interpretiert], das eine so große Herrschaft ist, dass von dort alle Stämme der Slawen hergekommen sind und ihre Herkunft, wie sie bekräftigen, ableiten.). Dann erwähnt er noch nach den Fresiti, die Serauici, denen die Lucolane, Ungare (Ungarn) und Uuislane (Wislanen) in der Aufzählung folgen. De administrando imperio Konstantins VII. Porphyrogennetos Werk De administrando imperio (DAI) bezeugt als umfangreichste Quelle die frühe Geschichte der Serben in Byzanz und widmet ihr ein eigenes Kapitel. Darin wird unter anderem erwähnt, dass die Serben von den „ungetauften“ Serbloi (griechisch: αβαπτιστων Σερβλων), die auch „Weiße“ genannt wurden, aus einer Gegend namens Boiki (Böhmen?) abstammen und dort, in Serbien, zwei Brüder den Vater beerbten, wobei sich der eine mit der Hälfte des Volkes nach Südosteuropa aufmachte. Dieses Serbien befand sich nach dem DAI jenseits der „Türken“ (wahrscheinlich ein Turkvolk in der Pannonischen Tiefebene oder der Ukraine). Als Nachbarn der Serben in „Boiki“ nennt Porphyrogennetos das Frankenreich und ein Großkroatien, das ebenso wie die Kroaten und Serben auch Weiß genannt wurde. Laut DAI sind die byzantinischen Serben im 7. Jahrhundert während der Herrschaft Herakleios’ nach der faktischen Landnahme der durch die letzten Einfälle Steppenvölker verödeten Regionen offiziell angesiedelt worden. Hier erwähnt der Autor auch ihre Niederlassung bei Belgrad. Seit dieser Zeit trägt ein Ort nahe Thessaloniki den Namen nach der im DAI beschriebenen von den Serben begründeten Provinz Serblia, heute Servia. Weiter schreibt er, dass die Zachlumi (Ζαχλούμων), die das Land Zahumlje bewohnen, Nachfahren der Serben sind, die sich zur Zeit der Regentschaft des Herakleios (610–641) dort niederließen. (Οἱ δὲ νῦν οἰκοῦντες ἐκεῖσε Ζαχλοῦμοι Σέρβλοι τυγχάνουσιν ἐξ ἐκείνου τοῦ αρχοντος, τοῦ εἰς τὸν βασιλέα ῾Ηράκλειον προσφυγόντος.) Über die Trawunier (serbisch Travunci, Τερβουνιωτῶν) schreibt der Kaiser, dass sie mit den Kanaliten dasselbe Land bewohnen und dass die Einwohner dieses Landes Nachfahren der nichtgetauften Serben seien, die sich zu der Zeit des Kaisers Herakleios dort ansiedelten (᾿Απὸ δὲ τῶν ἀβαπτίστων Σέρβλων οἱ ἐκεῖσε οἰκοῦντες κατάγονται (…)). Nach diesen Trawuniern ist heute noch die Stadt Trebinje in Bosnien und Herzegowina benannt. Außerdem zählt er noch die Paganier (Paganci) zu den Nachfahren der Serben, die ebenso zur Zeit des Herakleios diesen Landstrich besiedelten (Οἱ δὲ αὐτοὶ Παγανοὶ ἀπὸ τῶν ἀβαπτίστων Σέρβλωνἐξ ἐκείνου τοῦ ἄρχοντος, τοῦ εἰς τὸν βασιλέα ῾Ηράκλειον προσφυγόντος.). Arabische Quellen Vom arabischen Geographen al-Masudi (Murudj al-dhahab), ein Zeitgenosse des Konstantin VII., stammt eine Notiz, die sich nach Marquart auf die „weißen Serben“ Porphyrogennitos' bezieht: In einer Beschreibung slawischer Stämme Nord- und Zentraleuropas nennt al-Masudi die „ehrfurchtgebietenden“ (muhīb) Surbīn. Diese Serben waren nach al-Masudi bei den Slawen aus vielen Gründen gefürchtet. Hier nennt er auch einen Kodex, der vorgab, sich selbst zu verbrennen, falls ein Oberhaupt sterben sollte. Daraus kann man folgern, dass es sich um einen Kriegerkodex handelte über den der Reisende berichtet. Presbyter Diokleas Im 12. Jahrhundert erwähnt der Presbyter Diokleas Surbia (Transmontana, serb. Zagorje), das in zwei Provinzen, westlich der Drina namens Bosna und östlich des Flusses namens Rassa, geteilt war. Surbiam autem quae et Transmontana dicitur, in duas divisit provinciam: unam a magna flumine Drina contra occidentalem palagam usque and montem Pini, quam et Bosnam vocavit, alteram vero ab eodem flumine Drina contra orientalem plagam usque ad Lapiam et Lab, quam Rassam vocavit. Zweiter Weltkrieg Nach dem Sieg im Ersten Weltkrieg bildeten die Serben anschließend mit anderen südslawischen Völkern das Königreich der Serben, Kroaten und Slowenen. König Alexander I. aus der serbischen Karađorđević-Dynastie errichtete 1929 eine Königsdiktatur, benannte das Land in Königreich Jugoslawien um und regierte es bis zu seiner Ermordung 1934. Im Zweiten Weltkrieg wurde Jugoslawien im Balkanfeldzug im April 1941 überfallen. Das Land wurde anschließend in viele Teile geteilt, wobei Serbien direkt von den Deutschen besetzt wurde. Der Unabhängige Staat Kroatien, ein Vasallenstaat der Achsenmächte, wurde von Diktator Ante Pavelić regiert, dem Führer der Ustascha. Die ideologischen Grundlagen der Ustascha-Bewegung lassen sich bis ins späte 19. Jahrhundert verfolgen und gehen auf die Politiker Ante Starčević und Eugen Kvaternik zurück. Beide standen der jugoslawischen Idee feindlich gegenüber, wollten einen kroatischen Nationalstaat schaffen und gründeten die nationalistische Partei der Rechte (), die zur Vorläuferin der Hrvatska stranka prava wurde. Das KZ Jasenovac war berüchtigt für die dortigen barbarischen Praktiken. KZ Sisak und KZ Jastrebarsko wurden speziell für Kinder gegründet. Serben in der NDH erlitten während des Zweiten Weltkriegs eine der höchsten Opferraten in Europa, während die NDH eines der tödlichsten Regime im 20. Jahrhundert war. Diana Budisavljević, eine Menschenfreundin österreichischer Abstammung, führte Rettungsaktionen aus Ustaše-Lagern durch und rettete mehr als 15.000 Kinder, hauptsächlich Serben. Mehr als eine halbe Million Serben wurden während des Zweiten Weltkriegs im Völkermord an den Serben im Unabhängigen Staat Kroatien getötet. Serbische Partisanen bildeten daraufhin eine Widerstandsbewegung, die als Jugoslawische Armee im Heimatland oder Tschetniks bekannt ist. Die Tschetniks hatten die offizielle Unterstützung der Alliierten bis 1943, als sich die alliierte Unterstützung auf die 1941 gegründete kommunistische Volksbefreiungsarmee bzw. die Titopartisanen verlagerte. Während des gesamten Krieges stellten Serben 53 Prozent der Partisanen, und 64,1 % aller bosnischen Partisanen waren Serben. Nach der Kapitulation Italiens im September 1943 schlossen sich weitere ethnische Gruppen in größerer Zahl den Partisanen an. Verbreitung Frühere Siedlungen Die Küste der römischen Region Dalmatia, wie das unmittelbare Hinterland sind nach dem DAI ab der Zeit des Herakleios im frühen 7. Jahrhundert von Slawen besiedelt. Frühe slawische Siedlungen waren demnach die Länder Paganien, Zahumlje und Travunien. Das De administrando Imperio gesteht den Slawen die Besiedlung dieser Provinzen ab der Zeit der Regentschaft des Herakleios von 610 bis 641 n. Chr. zu. Ob es sich bei diesen Slawen um ethnische Serben handelte, wird besonders im deutschen und kroatischen Raum von der Forschung angezweifelt. Serben und Walachen gründeten im 18. Jahrhundert auf dem Gebiet der heutigen Ukraine und Russland Neuserbien, das von 1752 bis 1764, und Slawenoserbien, das von 1753 bis ebenso 1764 bestehen blieb. Die Siedler, zunächst vorwiegend Militärpersonal, kamen vorwiegend aus der Vojvodina und Slawonien, was sich an den Ortsnamen, wie Zemun, Subotica, Vukovar oder Sombor, widerspiegelte. Bevölkerung Serben leben vor allem in Serbien, in Bosnien und Herzegowina (überwiegend in der Republika Srpska), in Montenegro, im Kosovo und in Kroatien. Die größten urbanen Zentren der serbischen Bevölkerung befinden sich in Belgrad, Novi Sad, Kragujevac und Niš in Serbien sowie in Banja Luka und in Istočno Sarajevo in Bosnien und Herzegowina. Serben leben als anerkannte autochthone Minderheit weiterhin in Nordmazedonien (ca. 36.000), Rumänien (ca. 22.500), Slowakei (k. A.) und Ungarn (ca. 3.800). Serbien In Serbien leben laut Volkszählung 2002 6.212.838 (82,86 %) Serben. Bosnien und Herzegowina In Bosnien und Herzegowina lebten laut Zensus 2013 etwa 1,1 Millionen Serben (30,8 %). Diese bilden – neben den Bosniaken und Kroaten – eines der drei konstitutiven Völker des Landes. Der überwiegende Anteil lebt in der Republika Srpska. In der Föderation Bosnien und Herzegowina leben Serben vor allem in den Gemeinden Drvar, Bosansko Grahovo und Bosanski Petrovac im Nordwesten des Landes. Montenegro In Montenegro leben laut vorläufiger Auswertung der Volkszählung 2011 178.110 Serben oder 28,73 % von insgesamt 625.266 Einwohnern nach 620.100 im Jahr 2003. 2003 wurden im Zensus noch 198.414 Serben gezählt, deren Anteil 32 % war. Interessanterweise wächst Montenegros Bevölkerung, wenn mittlerweile auch nur sehr schwach, was im Vergleich zu den anderen südosteuropäischen Ländern hervorsticht. Ein Novum im Zensus 2011 bildet die Splittung in „Montenegriner-Serben“ 1.833 (0,3 %) und „Serben-Montenegriner“ 2.103 (0,37 %). Ungeklärt ist auch weiterhin der Status der rund 16.000 Flüchtlinge aus dem Kosovo, aus Bosnien-Herzegowina und auch aus Albanien. Ebenso verhält es sich mit den zahlreichen Serben. Sie werden in der Verfassung aufgeführt, jedoch wurde es bewusst vermieden, sie eindeutig entweder als Minderheit oder als staatstragendes Volk auszuzeichnen. Nach dem abgehaltenen Referendum über die Unabhängigkeit Montenegros 2006 votierten etwa 44,5 % oder 185.002 Einwohner für den Verbleib Montenegros in der Union mit Serbien. Nach dem Zensus 2003 gab zwei Drittel der Bevölkerung Serbisch als Muttersprache an. 2011 waren es noch knapp 43 % oder 265.895 Einwohner, die Serbisch als Muttersprache sprechen, obwohl sich nur etwa 180.000 als Serben, bzw. „Montenegriner-Serben“ oder „Serben-Montenegriner“ deklarierten. Damit spricht der größte Teil der Bevölkerung Montenegros Serbisch. Kosovo Im Kosovo leben laut Angaben der CIA etwa 130.000 Serben (7 %), hauptsächlich im Nordkosovo, im nördlichen Teil von Mitrovica und in einigen weiteren von der KFOR bewachten Enklaven. Entsprechend den Ergebnissen der Volkszählung lebten 1991 in der damaligen südserbischen Sozialistischen Autonomen Provinz Kosovo insgesamt 194.190 Serben. Viele sind aus Angst vor ethnisch motivierten Angriffen seitens der Albaner geflohen oder wurden vertrieben. Kroatien Von 1941 bis 1945 verübte der Unabhängige Staat Kroatien (NDH) durch die Ustascha und mit der Hilfe der Wehrmacht einen Völkermord an Serben, unter anderem im KZ Jasenovac. Dabei wurden zwischen 330.000 und 390.000 Serben ermordet. Hier wird auch die Rolle der katholischen Kirche in Kroatien kritisiert. Das KZ Jasenovac gilt heute als Synonym für den Völkermord im jugoslawischen Raum. Nach 1945 kam es auch durch die Kommunisten um Tito zu politischen Verfolgungen, die in Flucht und Emigration vieler Tausend Serben, besonders der Königstreuen und Tschetniks, ins Ausland, vorwiegend in die USA und Australien, mündete. Bedenkt man die Zahl der Opfer von Flucht, Vertreibung und Ermordung speziell von Serben durch die Folgen des Zweiten Weltkriegs, kann man davon ausgehen, dass auf dem Gebiet des heutigen Kroatiens für die Jahre vor 1941 die Serben einen weit höheren Bevölkerungsanteil als die 1991 im Zensus festgestellten 12 % stellten. Im weiteren Verlauf, z. B. dem Aufzwingen der Planwirtschaft, kam es zur Landflucht und letztlich zur ökonomisch bedingten Emigration. Vor der Änderung der Verfassung Kroatiens 1990 waren Serben neben den Kroaten als eine der beiden konstituierenden Ethnien der jugoslawischen Republik Kroatien statuiert. Vor dem Kroatienkrieg lebten nach der Volkszählung 1991 581.633, also etwa 12,2 % von 4.784.265 Einwohnern. 2001 lebten in Kroatien laut Zensus noch 201.631 Serben, also 4,54 % von 4.437.460 Einwohnern. Im Zensus 2001 wurden somit etwa 380.000 Serben, 100.000 Jugoslawen und insgesamt etwa 350.000 Menschen weniger gezählt. 44.629 Personen (etwa 1 % der Bevölkerung in Kroatien) gaben Serbisch als ihre Muttersprache an. Zwei Drittel davon leben in der Gegend um Vukovar und Osijek-Baranja. Als Standardantwort war „Kroatisch“ vorgegeben. Nach der Unabhängigkeitserklärung Kroatiens gründeten die Serben der Krajina (Крајшници/Krajšnici) den De-facto-Staat Republik Serbische Krajina. Während des Kroatienkriegs wurden die Gebiete zunächst „ethnisch gesäubert“. Nach der Eroberung der Serbischen Krajina, wurden zwischen 150.000 und 200.000 Serben vertrieben oder flüchteten nach Serbien und in die Republika Srpska. Nach einem Bericht des kroatischen Helsinki-Komitees kamen während und nach der Offensive insgesamt 400 bis 800 Serben durch marodierende kroatische Truppen ums Leben. Bis 2002 waren nach Angaben der UNHCR rund 100.000 Serben der Krajina zurückgekehrt. Im Januar 2010 reichte Serbien stellvertretend eine Gegenklage wegen Genozids an Serben auf dem Gebiet des heutigen Kroatiens im Kontext zu den Geschehnissen zwischen 1941 und 1945 sowie 1991 und 1995, also genau fünfzig Jahre später, ein. In der kroatischen politischen Landschaft beteiligten sich seit Beendigung des Krieges mehrere serbische Abgeordnete wie Milorad Pupovac, Vojislav Stanimirović und Milan Đukić an der Regierungsverantwortung. Slowenien In Slowenien leben nach der Volkszählung 2002 etwa 39.000 Serben. Im Dezember 2008 revidierte die Regierung Sloweniens die Entscheidung von 1992 zur Ausbürgerung derer, die im zerfallenden Jugoslawien nicht fristgerecht einen Antrag auf slowenische Staatsbürgerschaft gestellt hatten, wovon mehr als 30.000 Serben betroffen waren. Die Betroffenen konnten offiziell nicht ausreisen, eine andere Staatsbürgerschaft stellen oder eine Beschäftigung aufnehmen und mussten fürchten, da sie zu Migranten bzw. Asylanten zurückgestuft wurden, ausgewiesen zu werden. Frühere Volkszählungen im ehemaligen Jugoslawien wurden dementsprechend angepasst und der Anteil der offiziell in Slowenien lebenden Serben verringert. Somit wurden etwa 30.000 Serben in der letzten Volkszählung 2002 nicht berücksichtigt. Im Jahr 2000 wurde diese Entscheidung vom Verfassungsgericht in Slowenien als verfassungswidrig eingestuft. Im Dezember 2008 wurde das Urteil des Verfassungsgerichts schließlich politisch umgesetzt. Entschädigungen für die etwa 16 Jahre der Staatenlosigkeit und Desintegration sollen nach Aussagen der slowenischen Regierung den Opfern zugesprochen werden. Es ist weiterhin nicht geklärt, inwieweit die nunmehr fast 70.000 Serben eine autochthone Minderheit in Slowenien bilden und ob sie deswegen in Zukunft offiziell als neue Minderheit mit entsprechenden Rechten in der Europäischen Union anerkannt werden. Nordmazedonien In Mazedonien lebten 2002 annähernd 36.000 Serben. Die meisten Serben leben in der Hauptstadt Skopje, in Kumanovo und in der Gemeinde Čučer Sandevo. In Skopje stellen sie nach den Albanern und Roma mit 14.298 Einwohnern oder 2,8 % die drittgrößte Minderheit. In der Stadt Kumanovo stellen sie mit 9062 Einwohnern oder 8,6 % die zweitgrößte Minderheit. Den verhältnismäßig stärksten Anteil in einer Gemeinde bilden die Serben mit etwa 28 % oder 2426 Einwohner in der Gemeinde Čučer Sandevo. Slowakei Die Slowakei sprach im Februar 2010 den Serben den Status einer nationalen Minderheit zu, was sie zu einer autochthonen Minderheit erhebt. Die genaue Zahl der Serben ist nicht bekannt. Sie stellen nach Schätzung weniger als ein Prozent der Bevölkerung der Slowakei, womit einige zehntausend Personen zu zählen sind. In der letzten Volkszählung 2002 sind sie mit anderen Ethnien zusammen mit zwei Prozent vertreten. Mit dem Status haben die Serben einen Sitz im Parlament der Slowakei und national und international, besonders auf der Ebene der EU, eine deutlich bessere Position. Albanien Die erste offizielle Bestätigung von Serben in Albanien war die Benennung von 100 Serben und Montenegrinern in der Volkszählung 1989. Bei der Volkszählung 2011 gaben 366 Personen als Nationalität „montenegrinisch“ an, 66 Menschen bezeichneten „serbokroatisch“ als ihre Muttersprache. Eine Selbsteinstufung als Serbe oder Sprecher des Serbischen war nicht möglich. Die serbische Regierung gibt die Zahl mit 35.000–40.000 an. Montenegriner sind, anders als Serben, als nationale Minderheit staatlich anerkannt. Montenegriner und Serben haben sich seit 1991 in der Kulturvereinigung „Moraca–Rozafa“ organisiert. Diese beklagt eine Benachteiligung der Montenegriner und Serben gegenüber anderen Minderheiten. Im Dorf Hamil bei Fier wurde 2014 eine serbischsprachige Schule eröffnet. Rumänien In Rumänien gibt es eine starke serbische Minderheit im Banat rund um Timișoara und Orșova in Ortschaften wie Ivanda (Kreis Timiș), Belobreșca, Câmpia, Divici, Liubcova, Măcești, Moldova Veche, Pojejena, Socol, Zlatița (alle Kreis Caraș-Severin) und Svinița (Kreis Mehedinți). Insgesamt leben nach der Volkszählung 2002 22.561 Serben (rumänisch Sârbi) auf dem Gebiet des gesamten Rumäniens. Diaspora Das serbische Ministerium für die Diaspora geht von bis zu 3,5 Millionen in der Diaspora lebenden Serben mit serbischstämmigen Hintergrund aus. Es ist beabsichtigt in nächster Zukunft vollständige Analysen durchzuführen und die serbische Diaspora durch Dachverbände besser zu organisieren, um den politischen Willen dieser Menschen im Ausland, sowie in Serbien effektiver in die politische Entscheidungsfindung einzubringen und das wirtschaftliche Potenzial dieser großen Anzahl von Emigranten effizienter auszuschöpfen. In den USA, Kanada, Australien, Deutschland, Österreich, Schweden, Frankreich und der Schweiz bilden sich die größten serbischen Gemeinschaften. Große innerstädtische Gemeinden haben sich in Chicago, Stuttgart, Wien und in Zürich gebildet. Englischsprachiger Raum In den USA gaben in der Volkszählung 2010 ca. 141.000 Personen an der Herkunft nach Serben zu sein. Zusätzlich wurde im Zensus 2010 noch nach einer zweiten Herkunft gefragt, wobei sich zusätzlich in etwa 47.000 weitere Befragte als Serben deklarierten. Nach Erhebungen von 2006 bis 2008 nutzen etwa 64.000 Einwohner die serbische Sprache innerhalb der Familie bzw. in den eigenen vier Wänden als Umgangssprache. In Kanada gaben im Zensus von 2006 46.053 Einwohner an serbischer Herkunft zu sein. Weitere 27.000 gaben an mitunter serbischen Ursprungs zu sein. Im Zensus von 2006 in Australien werden 95.364 Serben gezählt. Deutschsprachiger Raum Wie auch in anderen Staaten ist die genaue Zahl der im deutschsprachigen Raum lebenden Serben nicht genau bestimmbar, da bei Volkszählungen oder ähnlichen Erhebungen die Ethnie üblicherweise nicht erhoben wird, sondern nur Zahlen über die jeweilige Staatsangehörigkeit existieren. Die Serben in Deutschland stellen nach den Türken, Italienern, Griechen, Polen, Kroaten und Russen die siebtgrößte ausländische Bevölkerungsgruppe in Deutschland, die Serben in der Schweiz die viertgrößte ausländische Bevölkerung. Die Serben in Österreich sind nach den Deutschen die zweitgrößte ausländische Bevölkerungsgruppe. Der Zentralrat der Serben in Deutschland, der ein weitgefasstes Verständnis zur ethnischen Zugehörigkeit der Migranten aus Jugoslawien besitzt, spricht von mehreren Hunderttausend Serben in Deutschland. Für 2011 hat das Statistische Bundesamt die Zahl von 197.984 serbischen Staatsangehörigen in Deutschland herausgegeben. Weitere 54.557 in Deutschland lebende Personen mit der Staatsbürgerschaft des ehemaligen Serbien und Montenegro haben sich noch nicht für eine der möglichen neuen Staatsbürgerschaften entschieden. In Österreich bezeichneten bei der Volkszählung 2001 177.320 Menschen serbisch als ihre Umgangssprache, dies beinhaltet auch Doppelangaben deutsch/serbisch. Von diesen Personen besaßen 41.944 die österreichische Staatsbürgerschaft. Ende 2010 lebten ca. 122.000 serbische Staatsangehörige in der Schweiz. Die erste große Auswandererwelle kam aufgrund des Bedarfs an Gastarbeitern in den 1960er bis 1980er Jahren, die zweite folgte mit dem Zerfall Jugoslawiens 1991 und den darauf folgenden Krisen. Romanischsprachiger Raum In Italien leben nach der Volkszählung aus dem Jahre 2005 65.000 Staatsangehörige Serbien-Montenegros, davon sind bis zu 30.000 Serben. In diesem Fall kann man davon ausgehen, dass unter 50 % serbischstämmig sind, denn Italien ist seit je her ein beliebtes Immigrationsziel der albanischstämmigen Bevölkerung aus dem Kosovo. Skandinavien Die Volkszählung Ende 2005 in Schweden erfasste die Ausländer nach dem Geburtsland. Dabei sind 78.000 in Serbien-Montenegro geboren. In Norwegen leben ca. 10.000–15.000 Serben. Die Angaben stammen vom Januar 2007. Dabei kommen 12.500 Menschen aus Serbien. Quellen: siehe Tabelle Kultur Sprache Serben sprechen die serbische Sprache, in Serbien überwiegend die ekavische Variante. Die Sprache entspricht weitgehend dem im 19. Jahrhundert standardisierten Serbokroatischen. In Bosnien und Herzegowina, Kroatien und Montenegro wird das Serbische überwiegend in der ijekavischen Variante gesprochen. Zudem existiert auch die ikavische Variante, die jedoch keine Schriftsprache darstellt und mundartlich kaum noch angewendet wird, höchstens als halbikavisch oder halbijekavisch. Im Klerus der serbisch-orthodoxen Kirche wird noch das Kirchenslawisch serbischer Varietät bewahrt. Eine Besonderheit bilden die serbischen Walachen. Nach der letzten Volkszählung 2002 deklarierte sich etwa ein Drittel der etwa 55.000 Walachisch Sprechenden als Serben. Interessant ist, dass mehr oder weniger etwa drei Viertel der etwa 200.000 Serben in Kroatien im Zensus 2001 sich als muttersprachlich kroatischsprechend deklariert haben muss, da die Zahl der muttersprachlich serbisch Sprechenden mit etwa 45.000 im Zensus angegeben wird. Schrift Sowohl das kyrillische Alphabet, die Azbuka vom serbischen Reformator Vuk Stefanović Karadžić, als auch das lateinische Alphabet, ergänzt durch serbische Sonderzeichen, sind im Gebrauch, wobei in der Verfassung Serbiens von 2006 festgelegt wurde, dass das Kyrillische den Vorzug vor der lateinischen Schrift besonders in Behörden, wie auch im Schulunterricht, hat. Nachnamen Form Bei serbischen Nachnamen gibt es im Gegensatz zu den meisten anderen slawischen Nationen keine Angleichung des Namens bezüglich des Geschlechts des Namensträgers. Serbische Nachnamen sind zumeist Patronyme oder Metronyme. Schätzungen zufolge haben mehr als zwei Drittel der Nachnamen das -ić als Endung. Je nachdem was für ein Konsonant oder Vokal am Ende des Namens steht, ist ein -ević, -ović bzw. -vić angefügt. Ist das v selbst der letzte Buchstabe im Wortstamm, folgt ihm das Suffix -ljević. Radosav wird zu Radosavljević, Rastisav zu Rastisavljević. Bei männlichen Namen, wie Nikola oder Kosta, entfällt das a und wird nur mit einem ić ersetzt, was zu Nikolić bzw. Kostić führt. Das gilt auch für die Metronyme, wie in den Beispielen Marić von Mara und Radić von Rada zu sehen ist, da hier nahezu alle weiblichen Namen mit einem a enden. Weitere Endungen sind u. a. -in, -ski, -ev, -ov, -ac, -ak, -ca, -elj. Die Familiennamen, die weit verbreitet sind Jovanović (von Johannes), Petrović (von Peter), Marković (von Marko) sowie Djordjević (von Georg). Bedeutung Die Aussage, es handele sich bei dem -ić um ein Diminutiv, ist schlussfolgernd. Hierbei wird auf die weitere Anwendung des -ić im serbischen Sprachgebrauch verwiesen, dem seit der Rechtschreibreform derselbe Lautwert zugewiesen wird. So entspricht das -ić in dieser dem deutschen -chen oder -lein. Beispiele hierzu sind konj/konjić, also Pferd/Pferdchen und most/mostić für Brücke/Brücklein. Geschichte In Westeuropa wurde das ć früher in der Regel als ch, tch, tsch, tz oder k umschrieben, teilweise sogar durch ein n ersetzt. Während der Neogenese einer Nation von Serben im 19. und 20. Jahrhundert und der damit verbundenen Bürokratisierung bekam auch das Suffix -ić einen politischen Charakter. So wurde es 1817 als Endung in Namen auf dem Gebiet Österreichungarns verboten. Besonders rigide wurde das Verbot im ungarischen Sprachraum umgesetzt. Auch die Spannungen zwischen den Machtzentren der Serben und Bulgaren führten dazu, dass das geschlechtsneutrale -ić als serbisch und das geschlechtsabhängige -ov als bulgarisch typisiert wurde. Nach 1918 kommt es im neubegründeten Königreich der Serben, Kroaten und Slowenen zur aktiveren Typisierung des -ić als Endung für serbische Nachnamen. Religion Die ethnischen Serben bekennen sich mit einer sehr großen Mehrheit zur Serbisch-Orthodoxen Kirche und damit zum orthodoxen Christentum (). An zweiter Stelle folgen die sich als Atheisten bekennenden Serben. Neben diesen gibt es auch einige sich als Protestanten, römische Katholiken, Muslime und Anhänger anderer Religionen bekennende Serben. Einige Ethnologen sind der Meinung, dass Serben, Bosniaken und Kroaten ihre Volkszugehörigkeit vor allem durch ihre Religionszugehörigkeit bzw. ihren Standpunkt zur Religion definieren und sich damit mit dem entsprechenden Kulturkreis identifizieren. Die serbische Identität und Kultur ist stark vom orthodoxen Christentum geprägt. So wurde die Schrift über die missionierenden orthodoxen Mönche und sog. Slawenlehrer Kyrill und Method den Serben bekannt gemacht. Diese Errungenschaft die Angleichung der griechischen kyrillischen Schrift an das bis dato an den christlichen Höfen belächelte einfache Altserbische war entscheidend für die kulturelle Entfaltung serbischer Literatur, Kunst, Baukunst, Politik und Religiosität, weshalb Kyrill und Method heute als Heilige verehrt werden. Die orthodoxe Kirche hat des Weiteren die ersten Bildungsinstitutionen bei den Serben eingeführt und im 12. Jahrhundert das erste geschriebene Gesetzbuch, das Nomokanon des heiligen Sava von Serbien etabliert. Sie wird als Bewahrerin der serbischen Identität, Tradition und Geschichte angesehen. Serbischer Gruß Ein markantes Symbol der Serben ist der serbische Gruß, bei dem Daumen, Zeigefinger und Mittelfinger geeint werden. Die drei Finger (Tri prsta) sind religiösen Ursprungs und gehen auf die von der serbisch-orthodoxen Kirche gelehrten Einheit der Dreifaltigkeit Gottes zurück. Als emporgestreckte Version ist der Gruß mittlerweile in Verwendung als serbisches Pendant zum englischen Victoryzeichen. Gerne wird der sinngemäß falsche Gruß (ausgestreckte Version) von serbischen Sportlern und Politikern genutzt. Serbisches Kreuz Ein weiteres Symbol ist das serbische Kreuz. Das Symbol wird heute dahin gedeutet, dass die Symbole als kyrillische S als Abkürzung für den Slogan Samo Sloga Srbina Spasava (Nur Eintracht rettet den Serben) stehen. Das Symbol ist fast identisch mit dem Wappen der letzten byzantinischen Kaiserdynastie der Palaiologen. Kolo Bis in die heutige Zeit überlebte bei einigen slawischen Völkern der altertümliche Reigen, der auf serbisch Kolo (kyr. коло) genannt wird. Heute wird der kollektive Tanz üblicherweise mit Blasmusik und Akkordeon begleitet, wo früher überwiegend Flöte, Gusle und andere mittelalterliche Instrumente verwendet wurden. Es gibt unzählige Varianten des Kolo unter denen die berühmtesten das Srpsko und Užičko Kolo sind. Literatur Kukolj, K. (2010): Die Südslawen und ihre Identität(en) – Eine Untersuchung in Deutschland lebender Bosnier, Kroaten und Serben. Grin Verlag, München Zoran, G. (2005): Wiener Serben. Universität Wien, Wien. Einzelnachweise Ethnie in Europa Slawischsprachige Ethnie Ethnische Minderheit im Kosovo Gesellschaft (Serbien)
Q127885
455.00286
88821
https://de.wikipedia.org/wiki/Wasserpflanze
Wasserpflanze
Wasserpflanzen oder Hydrophyten (aus und phytón ‚Pflanze‘) sind Pflanzen, die ganz oder teilweise unter Wasser leben. Wasserpflanzen kommen im Süß-, Brack- und Meerwasser vor. Definition und Abgrenzung Makrophyten Zu den im Wasser wachsenden Pflanzen (im weiteren Sinne, als Arten, die mittels Pigmenten wie Chlorophyllen aus Sonnenlicht und anorganischen Nährstoffen als sogenannte Photoautotrophe ihre Biomasse erzeugen) zählen die primär im Wasser lebenden, als Algen bezeichneten Gruppen und einige Gruppen der, primär landlebenden, Moose und Gefäßpflanzen, der Farne und Blütenpflanzen (Vertreter der anderen Samenpflanzen besitzen keine wasserlebenden Vertreter). Zu den Algen wurden früher auch die „Blaualgen“ gerechnet, die heute, wie alle autotrophen Prokaryoten, nicht mehr als Pflanzen gelten. Bei der Untersuchung wasserlebender Pflanzen hat sich, aus methodischen Gründen, eine Zweiteilung ergeben: Die kleinen (oft einzelligen) Arten des Phytoplankton und als mikroskopische Fäden oder Lager aufwachsenden Algen (als Periphyton bezeichnet) werden von der Algenkunde (Phycologie, oder auch Algologie) oder von produktionsbiologisch interessierten Limnologen (Hydrobotanikern) bearbeitet, sie müssen meist im Labor, mittels mikroskopischer Techniken, bestimmt werden. Meist sind sie, wenn von Wasserpflanzen die Rede ist, nicht gemeint. Die größeren, in der Regel im Gelände ansprechbaren Wasserpflanzen werden als aquatische (das heißt: im Wasser lebende) „Makrophyten“ bezeichnet. Vegetationskundler bearbeiten im Regelfall nur die Makrophyten. Der Begriff Makrophyten ist rein pragmatisch definiert als diejenigen, größeren, Wasserpflanzen, die mit den üblichen vegetationskundlichen Methoden, im Freiland, bestimmt und bearbeitet werden können. Dazugezählt werden alle Moose und Gefäßpflanzen und aus der Gruppe der Algen die Armleuchteralgen. In der Zuordnung unsicher sind einige andere makroskopische Algen, etwa die Rotalgen der Gattungen Lemanea und Batrachospermum (wie die Froschlaichalge), sie werden manchmal mit berücksichtigt, manchmal nicht. Die einzigen im Meer lebenden Samenpflanzen sind die grasartigen zu den Seegräsern zusammengefassten Arten der Uferzone. Große Algenarten des Meeres, die als Seetang zusammengefasst werden, sind meist beim Begriff Wasserpflanze nicht mitgemeint. Wasserpflanzen und Sumpfpflanzen Die Makrophyten des Süßwassers bilden, nach den meisten Systematiken, einen Wuchstyp oder Lebensformtyp der Pflanzen. Die Abgrenzung der Wasserpflanzen von anderen Pflanzen ist dabei nicht eindeutig und wird von verschiedenen Botanikern im Detail etwas unterschiedlich gehandhabt. Während einige alle, zumindest zeitweilig, im Wasser wachsenden Arten einbeziehen, berücksichtigen andere nur solche Arten, die besondere Anpassungen an das Wasserleben aufweisen, insbesondere auch im Wasser assimilieren können (also nicht nur eine zeitweilige Überflutung überdauern). Andere verlangen sogar, dass die Art ihren gesamten Lebenszyklus im Wasser vollenden können muss. Problematisch für die Abgrenzung ist etwa, dass einige Pflanzenarten in einer Wasser- und in einer Landform existieren, die ineinander übergehen können, so dass die ursprüngliche Wasserpflanze nach dem Austrocknen an Land weiterwächst. Andere Arten wurzeln zwar unter Wasser, ragen aber teilweise über die Wasseroberfläche empor, wobei sie in den untergetauchten Teilen assimilieren können oder nicht. Es werden unterschieden Hydrophyten (auch Euhydrophyten oder Limnophyten), Wasserpflanze im engeren Sinne: Pflanzen, die ihr gesamtes Leben im Wasser verbringen können. Oft sind sie zur Aufnahme von gelöstem Hydrogencarbonat anstelle von Kohlenstoffdioxid als Kohlenstoffquelle befähigt, einige besitzen die Fähigkeit zur Unterwasserbestäubung. Wenn Landformen überhaupt vorkommen, stehen sie über Kriechsprosse (Rhizome oder Stolonen) mit dem Wasser in Verbindung. Amphiphyten (Auch Pseudohydrophyten): Dies sind Pflanzen, die im Wasser wie an Land gleichermaßen leben können. Beispielsweise wächst Europäischer Strandling (Littorella uniflora) untergetaucht am Gewässergrund, aber auch im nassen Schlamm ausgetrockneter Gewässer, oder von deren Ufern. Helophyten (Auch Telmatophyten), Sumpfpflanzen: Dies sind Pflanzen, die mit der Sprossbasis oder nur den Wurzeln im Wasser stehen können, aber immer über die Wasseroberfläche emporragen und überwiegend im Luftraum assimilieren. Sie können in der Regel genauso gut in bodennassen terrestrischen (d. h. landgebundenen) Lebensräumen vorkommen. Dazu gehören etwa die Arten des Röhrichts, wie etwa das Schilfrohr (Phragmites australis). Es gibt einige Zweifelsfälle, darunter überflutungstolerante kleine Gräser und Kräuter, die normalerweise an Land leben, aber untergetaucht eine Weile assimilieren können, wie etwa Wasserpfeffer (Persicaria hydropiper), oder Röhrichtarten, die auch mit dem untergetauchten Sprossabschnitt assimilieren, wie Gewöhnliche Teichbinse (Schoenoplectus lacustris). Im Regelfall werden aber die Helophyten nicht zu den Wasserpflanzen gerechnet. Typen von Wasserpflanzen Die Einteilung der Wasserpflanzen (ohne die Sumpfpflanzen) wird, je nach Fachrichtung oder nach Fragestellung, nach unterschiedlichen Kriterien vorgenommen, so dass nebeneinander verschiedene Klassifikationsschemata in Gebrauch sind. Wuchsformen Die Unterteilung der Wasserpflanzen nach den standortbezogenen Wuchsform ist das am häufigsten verwendete Klassifikationsschema. Man unterscheidet Pleustophyten oder Schwebepflanzen. Dies sind frei schwimmende, nicht im Gewässergrund wurzelnde Makrophyten. Manchmal wird noch feindifferenziert in Mesopleustophyten. untergetauchte, unter Wasser frei schwebende Arten. Ein Beispiel wären die Hornblatt-Arten (Gattung Ceratophyllum). Acropleustophyten. an der Wasseroberfläche frei schwimmende Arten. Dazu gehören etwa die Wasserlinsen (Gattung Lemna) Rhizophyten (selten: Benthophyten). Dies sind alle im Gewässergrund wurzelnden eigentlichen Wasserpflanzen. untergetauchte (oder submerse) Rhizophyten. Dies sind die eigentlichen, oder typischen Makrophyten. Dazu gehören etwa die (heimischen) Tausendblatt-Arten (Gattung Myriophyllum). Sie werden gelegentlich als Tauchblattpflanzen (selten auch Tauchpflanzen) bezeichnet. Oft ist in nährstoffreichen (eutrophen) Seen eine eigene Tauchblattzone ausgeprägt. Schwimmblattpflanzen. Bei den Schwimmblattpflanzen wurzelt die Pflanze am Gewässergrund, die Blätter schwimmen auf der Wasseroberfläche. Die Assimilation erfolgt dabei im Luftraum, über die nicht wasserbedeckte Blattoberseite. Dazu gehört zum Beispiel die Weiße Seerose (Nymphaea alba). Oft ist in nährstoffreichen (eutrophen) Seen eine eigene Schwimmblattzone ausgeprägt. Viele Wasserpflanzen-Arten können mehreren Wuchsformtypen angehören. Arten wie Reinweißer Wasserhahnenfuß (Ranunculus ololeucos) oder Gelbe Teichrose (Nuphar lutea) besitzen zum Beispiel Unterwasserblätter und Schwimmblätter, oft an derselben Pflanze. Einige Botaniker unterscheiden als weitere Gruppe: Haptophyten. Dies wären am Substrat verankerte Pflanzen ohne echte Wurzeln. Der Ausdruck wird selten, vor allem für Wassermoose wie das Quellmoos (Fontinalis antipyretica) verwendet, das, wie alle Moose, keine Wurzeln besitzt und sich mittels Rhizoiden an Hartsubstrat des Gewässergrunds verankert. Der Ausdruck ist aber ungebräuchlich geblieben. Gestalttypen Neben der Einteilung nach Lebensformen ist ein zweites Klassifikationsschema in Gebrauch, das die Wasserpflanzen nach morphologischer Ähnlichkeit in Gruppen einteilt, es wurde von dem schwedischen Botaniker Gustaf Einar Du Rietz erstmals eingeführt und später erweitert. Diese werden verwirrenderweise oft ebenfalls als die „Wuchsform“ bezeichnet, so dass dieser Begriff nicht eindeutig ist. Außerdem sind auch Schemata in Gebrauch, die beide Klassifizierungsmöglichkeiten miteinander verbinden. Die Wuchsformen, in diesem Sinn, sind jeweils nach einem charakteristischen Vertreter benannt. Verwendet werden etwa die folgenden Begriffe Nymphaeiden (nach Nymphaea, Seerosen): Pflanzen mit großen oder mittelgroßen Schwimmblättern; submerse Blätter nicht vorhanden oder nur schwach ausgebildet. Vallisneriden (nach Vallisneria): Submerse Pflanzen mit langen linealischen submersen Blättern, oft ohne Spross. Je nach Standortbedingungen zum Teil auch als Helophyten auftretend (z. B. Schwanenblume Butomus umbellatus). Elodeiden (nach Elodea): Submerse Sprosspflanzen mit wirteligen Blättern, die den Wasserkörper vollständig ausfüllen können. Pepliden (nach dem Sumpfquendel Lythrum portula, früher Peplis portula): Submerse Sprosspflanzen, die schwimmblattartige Blattrosetten ausbilden können. Myriophylliden (nach Myriophyllum): Submerse Sprosspflanzen mit kurzen, wirteligen, fein zerteilten Blättern. Parvopotamiden (Kleinlaichkräuter, nach den schmalblättrigen Arten in der Gattung Potamogeton): Submerse Sprosspflanzen mit schmalen, linealischen Blättern. Magnopotamiden (Großlaichkräuter, nach den breitblättrigen Arten in der Gattung Potamogeton): Submerse Sprosspflanzen mit breiten Blättern, selten auch Schwimmblättern. Magnobatrachiden (nach den größeren Arten der Gattung Ranunculus, Untergattung Batrachium: Wasserhahnenfuß): Submerse Sprosspflanzen mit langen, fein zerteilten Blättern. Pflanzen länger als 2 Meter, gelegentlich mit kleinen Schwimmblättern. Parvobatrachiden (nach den kleinwüchsigen Wasserhahnenfuß-Arten): Submerse Sprosspflanzen mit kurzen, fein zerteilten Blättern, gelegentlich mit Schwimmblättern. Pflanzen kürzer als 2 Meter, häufig Landformen bildend. Isoetiden (nach Isoetes): Submerse Pflanzen mit einem kurzen Spross und kurzen starren Blattrosetten. Chariden (nach den Armleuchteralgen der Gattung Chara): Submerse Makroalgen mit wirtelig verzweigtem Spross-System. Stratiotiden (nach der Krebsschere Stratiotes): Im Wasser schwimmende Pflanzen, deren vegetative Teile teilweise über die Wasseroberfläche hinausragen können und deren Wurzeln fakultativ im Sediment verankert sind. Beruloiden (nach der Berle Berula erecta): vollständig submerse Wuchsform von zweikeimblättrigen Sumpfpflanzen. Lemniden (nach Lemna): Kleine, auf der Wasseroberfläche schwimmende Pflanzen. Riccielliden (nach den Sternlebermoosen Riccia): Kleine, unter der Wasseroberfläche schwimmende Pflanzen. Ceratophylliden (nach Ceratophyllum): Große, im Wasserkörper schwebende Pflanzen mit fein zerteilten Blättern, gelegentlich mit Rhizoiden. Hydrochariden (nach dem Froschbiss Hydrocharis morsus-ranae): Größere, mit Schwimmblättern auf der Wasseroberfläche treibende Pflanzen. Anpassungen Wasserpflanzen sind an ihren Lebensraum, je nach Wuchsform und Standort, in unterschiedlicher Art und Weise angepasst. Alle Wasserpflanzen sind dabei krautige Pflanzen. Viele Wasserpflanzen, die nicht ausschließlich untergetaucht (submers) wachsen, verfügen über Luftleitgewebe (Aerenchym), über das Sauerstoff in die Stängel und Wurzeln gelangen kann. Schwimmblätter zeigen meist einen besonderen Aufbau: Sie besitzen ein ausgeprägtes Aerenchym und sind dadurch schwimmfähig, die Spaltöffnungen sind auf die luftexponierte Oberseite beschränkt; Die Blattoberfläche ist durch eine Wachsschicht wasserabweisend, teilweise auch schmutzabweisend (Lotoseffekt); sie verfügen über drüsenartige Strukturen, mit denen sie Wasser und Ionen aufnehmen können (Hydropoten); die Blattstiele sind stark verlängert, ansonsten aber normal gebaut, sie verfügen auch über Xylem, mit dem sie das Wasser von den Wurzeln zu den transpirierenden Blättern transportieren. Der Wassertransport erfolgt jedoch durch Wurzeldruck, nicht durch Transpirationssog. In Stillgewässern sind die Schwimmblätter meist groß und rund und entspringen einer Rosette. Victoria (Gattung) bildet Blätter mit bis zu zwei Meter Durchmesser. Frei schwimmende Pflanzen sind teilweise stark reduziert, wie die Schwimm- bzw. Algenfarne. Die am stärksten reduzierten Blütenpflanzen sind die Wasserlinsengewächse: Wolffia bildet überhaupt keine Wurzeln und keine Leitbündel mehr, die Blätter sind zu knopfigen Thalli reduziert. Submerse Pflanzen sind in ihrer Kohlendioxid-Versorgung für die Photosynthese auf den wesentlich geringeren Gehalt im Wasser angewiesen. Submerse Pflanzen in Stillgewässern haben daher schmale oder zerschlitzte Blätter (Wasserpest). Die Cuticula ist dünn. Die Chloroplasten sitzen in der Epidermis, die bei Pflanzen normalerweise frei von Chloroplasten ist. Dadurch wird der Diffusionsweg des Kohlendioxids reduziert. Durch die fehlende Transpiration können sie auch keine Mineralsalze aus dem Boden aufnehmen. Ihr Xylem ist reduziert. Die Wurzeln dienen nur mehr der Verankerung. Da aber auch das Wasser einen geringen Nährstoffgehalt hat, haben die Wasserschläuche und die Wasserfalle sich zu Fleischfressenden Pflanzen entwickelt. Einige der submersen Pflanzen werden auch durch das Wasser bestäubt (Hydrophilie). Andere strecken jedoch ihre Blüten in den Luftraum und werden durch Wind oder Tiere bestäubt. Pflanzen in rasch fließenden Gewässern sind zusätzlich zu den bereits genannten Faktoren auch noch der mechanischen Belastung ausgesetzt. Dafür ist aber die Versorgung mit Kohlendioxid und Nährstoffen durch die Bewegung des Wassers besser als in stehendem Wasser. Sie besitzen meist kabelartig aufgebaute Sprossachsen, mit einem zentral liegenden, festen Xylem. Die Blätter sind meist fein zerteilt. Beispiele sind die Artengruppe Wasserhahnenfuß. Sie können jedoch auch Blätter außerhalb des Wassers bilden, die normalen Laubblättern gleichen. Eine Pflanze bildet also zwei unterschiedliche Blattformen (Heterophyllie). Eine weitere Gruppe in rasch fließenden Gewässern sind die Podostemaceae in tropischen Flüssen. Pflanzen im Meerwasser, wie Seegräser, Mangroven und Pflanzen der Salzmarschen, müssen zudem noch mit den physiologischen Effekten des Meersalzes zurechtkommen, vergleiche Salzpflanze. Als Hydromorphie bezeichnet man die besondere Ausbildung von Organen die unter Wasser vorkommen (z. B. Stängel und Blätter bei Wasser- und Halbwasserpflanzen). Viele Wasserpflanzen sind heteroblastisch, blattdimorph. Eine Pflanze bildet im Verlauf ihrer Entwicklung zwei vollkommen unterschiedliche Blattformen. Siehe auch Aquarienpflanze Einzelnachweise Weblinks Wasserpflanzensteckbriefe Hamburg, (großes pdf) Schutzkonzept Wasserpflanzen in Schleswig-Holstein, (großes pdf) Pflanzentyp
Q186101
128.278189
1583268
https://de.wikipedia.org/wiki/Au%C3%9Fenhandel
Außenhandel
Außenhandel () ist der Export, Import und Transithandel von materiellen und immateriellen Gütern, Dienstleistungen und Kapital sowie deren Abwicklung. Pendant ist der Binnenhandel. Allgemeines Der internationale Handel unterscheidet sich wesentlich vom Binnenhandel. Bei grenzüberschreitenden Geschäften erschweren die räumliche Entfernung, Sprachunterschiede sowie unterschiedliche politische, rechtliche und wirtschaftliche Systeme die Beurteilung des Geschäftspartners. Der wichtigste Unterschied ist, dass der Außenhandel in der Regel teurer als der Binnenhandel ist. Der Grund dafür liegt darin, dass der lange grenzüberschreitende Transportweg in der Regel zusätzliche Kosten verursacht wie Zölle oder Transportkosten oder sonstige Transaktionskosten. Erst der Freihandel ermöglicht einen nicht reglementierten Außenhandel, während Handelshemmnisse bis hin zum Protektionismus ihn einschränken oder unmöglich machen. Einen absoluten Freihandel kann es allerdings nicht geben, weil diesem bereits die unterschiedlichen Staatsziele und Handelspolitiken entgegenstehen. Deshalb versucht die Außenhandelspolitik als Prozesspolitik die Gestaltung der internationalen Handelsbeziehungen, mit Hilfe staatlicher regulatorischer Maßnahmen durch Außenhandelsinstrumente einzugreifen. Der Außenhandel trägt zur internationalen Arbeitsteilung bei, weil beispielsweise Agrarprodukte oder Bodenschätze aus Agrarstaaten in den Industriestaaten weiterverarbeitet werden. So leistet er auch einen Beitrag zu Unternehmensinternationalisierungen, wenn beim Export heimische Güter auf internationalen Märkten bis hin zum Weltmarkt angeboten werden („made in Germany“) oder bei Importen ausländische Waren auf nationale Märkte gelangen. Arten Der intraregionale Außenhandel betrifft die Außenhandelsbeziehungen zwischen den Mitgliedsstaaten eines wirtschaftlichen Integrationsraumes (etwa die Europäische Union), während der interregionale Außenhandel die Handelsbeziehungen zwischen wirtschaftlichen Integrationsräumen (wie zwischen einem EU-Mitgliedstaat und einem Drittstaat) erfasst. Ein intersektoraler Außenhandel liegt vor, wenn Waren unterschiedlicher Kategorie gehandelt werden. So exportiert Deutschland beispielsweise Kraftfahrzeuge nach Kolumbien und bezieht von dort unter anderem Kaffee. Um intrasektoralen Außenhandel geht es, wenn dieselbe Warenkategorie zwischen Staaten gehandelt wird: Deutschland exportiert Kraftfahrzeuge nach Japan und importiert japanische Fahrzeuge. Rechtsfragen Rechtsgrundlage für den Außenhandel ist das Außenwirtschaftsrecht, das vor allem durch das Außenwirtschaftsgesetz (AWG) und die Außenwirtschaftsverordnung (AWV) repräsentiert wird. In Abs. 1 AWG wird der Freihandel propagiert, der nur den Beschränkungen unterliegt, die das AWG oder die AWV vorsehen (Ausfuhrgenehmigung, Ausfuhrlisten, Einfuhrgenehmigung, Einfuhrlisten). Der Außenhandel kann nur auf der Grundlage bilateraler oder multilateraler Handelsabkommen stattfinden. Sie regeln, welche Güter und Dienstleistungen zwischen den Handelspartnern ausgetauscht werden dürfen und welche nicht. Die gemeinsame Handelspolitik der EU wird gemäß Abs. 1 AEUV nach einheitlichen Grundsätzen gestaltet. Demnach muss das Europäische Parlament allen Handelsabkommen zwischen EU-Mitgliedstaaten und Drittstaaten seine Zustimmung erteilen. Zahlreiche Handelsbräuche haben sich speziell im Außenhandel herausgebildet. Der Außenhandel zwischen Exporteuren und Importeuren kann nur reibungslos funktionieren, wenn die Exporte und Importe in ihren Lieferungs- und Zahlungsbedingungen standardisierte und allgemein anerkannte Handelsklauseln vorsehen, die den Gefahrübergang, die Transportkosten und das Transportrisiko klären. Regelungen hierzu finden sich in den Incoterms, während die ERA 600 die international anerkannten Grundlagen für die Abwicklung von Dokumentenakkreditiven beinhalten. Außenhandel in der Wissenschaft Die Außenhandelstheorie als Teilgebiet der Außenwirtschaftstheorie versucht, die Auswirkungen auf die Handelsbeziehungen der Marktteilnehmer zu erklären. Im Zentrum stehen unter anderem die Theorien der absoluten und komparativen Kostenvorteile. Diese Kostenvorteile entstehen vor allem durch international unterschiedliche Lohnniveaus, durch welche die Einteilung in Niedriglohn- und Hochlohnländer wegen unterschiedlicher Produktionskosten und Arbeitskosten für dasselbe Gut erforderlich wird. Zudem ist der Außenhandel das Erkenntnisobjekt der Außenhandelsbetriebslehre, die sich vor allem mit dem Außenhandelsbetrieb befasst. Statistiken Die zehn größten Exportnationen weltweit: b Schätzungen des WTO-Sekretariats c In diesen Zahlen sind erhebliche Transfers im Rahmen von Re-Exports (Ausfuhren von ausländischen Gütern) und Einfuhren für Re-Exports enthalten Die zehn größten Importnationen weltweit: a FOB-Basis des Ausfuhrhafens Schätzungen des WTO-Sekretariats b In diesen Zahlen sind erhebliche Transfers im Rahmen von Re-Exports (Ausfuhren von ausländischen Gütern) und Einfuhren für Re-Exports enthalten Wirtschaftliche Aspekte Bereits für Thomas Mun stand im Jahre 1664 fest, dass Wohlstand dadurch entstehe, wenn andere Nationen mehr von England kauften als England von diesen konsumiere, wenn mithin ein Handelsbilanzüberschuss entstehe. Adam Smith führte dagegen den Außenhandel in seinem im März 1776 erschienenen Buch Wohlstand der Nationen darauf zurück, dass jedes Land sich auf die Herstellung jener Güter konzentriere, bei denen es einen absoluten Kostenvorteil erziele. Die unbestrittene Wirkung des Außenhandels auf den Wohlstand gilt jedoch nicht für alle Staaten, denn die Vorteile, die ein Staat aus dem Außenhandel zieht, können auch ganz oder teilweise zu Lasten anderer Länder gehen. Damit verursacht der Außenhandel eine Veränderung des Volkseinkommens und sorgt als Puffer für binnenwirtschaftliche Angebots- und Bedarfsverschiebungen. Angebotsüberhänge können exportiert, Nachfrageüberhänge importiert werden. Globalisierung, multinationale Unternehmen und Outsourcing sind Resultate des Außenhandels. Der deutsche Außenhandel wird in amtlichen Außenhandelsstatistiken nach Menge und Wert der Waren sowie nach Bezugs- und Abnehmerländern ausgewiesen. Die Volkswirtschaftslehre erfasst sämtliche außenwirtschaftlichen Aktivitäten in der Handels- und Dienstleistungsbilanz. Wichtige volkswirtschaftliche Kennzahlen für den Außenhandel sind der Außenbeitrag, die Außenhandelsquote, Exportquote, Importquote oder Offenheitsgrad. Der Außenbeitrag erfasst die Werte sämtlicher Exporte und Importe von materiellen und immateriellen Gütern und Dienstleistungen eines Staates innerhalb einer Rechnungsperiode. Er zeigt, ob ein Staat mehr exportiert als er importiert (Nettoexport) oder umgekehrt (Nettoimport). Die Außenhandelsquote setzt die Exporte und Importe ins Verhältnis zum Bruttoinlandsprodukt. Typisch für den Außenhandel sind dessen erhöhte Transaktionskosten im Vergleich zum Binnenhandel. Grund ist beim Import oder Export die zu überbrückende größere Distanz zwischen Importeur und Exporteur, die höhere Transportkosten zur Folge hat. Gleichzeitig geht hiermit auch eine Erhöhung des Transportrisikos einher. In der Betriebswirtschaftslehre spricht man vom institutionellen Außenhandel, wenn das Kerngeschäft eines Unternehmens außenhandelsorientiert ist (Außenhandelsbetrieb). Derartige Unternehmen generieren den größten Teil ihrer Umsatzerlöse durch Export oder Import. Es besteht mit dem Kaufmann im Groß- und Außenhandel ein eigenständiges Berufsbild. Im Vergleich zum Binnenhandel birgt der Außenhandel zusätzliche Risiken in sich. Dazu gehören insbesondere Länderrisiko (Transferstopprisiko, Moratoriumsrisiko), Lieferrisiken, politische Risiken, Transportrisiko, Wechselkursrisiko, Zahlungsrisiko, Zahlungsverbotsrisiko sowie interkulturelle Verständigungsrisiken. Die meisten Risiken lassen sich durch eine Exportkreditversicherung (Hermesdeckungen) absichern. Zahlungsrisiken können durch Anzahlungen, Vorauszahlungen oder Zahlungsgarantien gemindert oder beseitigt werden (beim Exporteur), Lieferrisiken durch Ausfallgarantien, Liefergarantien oder Vertragserfüllungsgarantien (beim Importeur). Das Bankwesen hat zudem außenhandelstypische Absicherungen geschaffen (etwa Akkreditiv, Dokumenteninkasso). Kreditinstitute führen darüber hinaus im internationalen Zahlungsverkehr die Zahlungsströme durch, indem sie die Zahlung des zahlungspflichtigen Importeurs beispielsweise über das Zahlungssystem SWIFT und ihre Korrespondenzbanken an den zahlungsempfangenden Exporteur bargeldlos als Auslandsüberweisung weiterleiten (). Außerdem tauschen sie Fremdwährungen in Inlandswährung und umgekehrt, übernehmen Außenhandelsfinanzierungen und führen Sicherungsgeschäfte durch. Abgrenzung Der Begriff Außenhandel bezieht sich insbesondere die bilateralen oder multilateralen Handelsbeziehungen eines Staates oder Wirtschaftsraums mit anderen Staaten. Außenhandel ist somit als Teil der Gesamtwirtschaft des Staates und im Vergleich zum Binnenhandel zu verstehen. Welthandel geht dagegen von einer globalen Sicht aus und umfasst die Gesamtheit der Handelsbeziehungen zwischen einer Vielzahl von Staaten, deren Strukturen, Mechanismen und die Entwicklung dieser Beziehungen. Siehe auch Ausländische Nachfrage nach inländischen Gütern Welthandel/Tabellen und Grafiken Liste der Länder nach Außenhandelsquote Literatur William Bernstein: A Splendid Exchange: How Trade Shaped the World from Prehistory to Today. Atlantic Books, 2008, ISBN 978-1-84354-668-9. Clemens Büter: Außenhandel: Grundlagen globaler und innergemeinschaftlicher Handelsbeziehungen. 1. Auflage. Physica, 2007, ISBN 978-3-7908-1724-9. Paul Krugman, Maurice Obstfeld, Marc Melitz: Internationale Wirtschaft: Theorie und Politik der Außenwirtschaft. 9. Auflage. Pearson Studium, 2011, ISBN 978-3-86894-134-0. Fritz-Ulrich Jahrmann: Außenhandel. (Kompendium der praktischen Betriebswirtschaft) 13. Auflage. NWB Herne, 2010, ISBN 978-3-470-54263-8. Weblinks Statistisches Bundesamt – Daten und Aufsätze zum Außenhandel Grafik: Außenhandel der EU, aus: Zahlen und Fakten: Europa, www.bpb.de Grafik: Handelsbeziehungen EU – USA – China, aus: Zahlen und Fakten: Europa, www.bpb.de Einstieg in den Aussenhandel, kostenloses E-Book oder PDF von PostFinance CH (aufgerufen 29. Mai 2015) Einzelnachweise Handelsbetriebslehre Volkswirtschaftslehre
Q178803
260.728767
43924
https://de.wikipedia.org/wiki/Belfast
Belfast
Belfast [] ( []) ist die Hauptstadt von Nordirland im Vereinigten Königreich Großbritannien und Nordirland und die zweitgrößte Stadt der irischen Insel nach Dublin. Belfast hat etwa 343.000 Einwohner (2019) und liegt an der Mündung des Flusses Lagan in der Bucht von Belfast (). Die Stadt besitzt den Status einer City und bildet einen der elf nordirischen Verwaltungsbezirke. Im Dublin-Belfast corridor entlang der Autobahn wohnen drei der sechs Millionen Iren. Belfast ist Sitz eines katholischen (Bistum Down und Connor) und eines anglikanischen Bischofs (Bistum Down und Dromore), Universitätsstadt und besitzt einen Seehafen. Die Stadt ist außerdem Sitz der Regierung und des Parlaments von Nordirland. Innerstädtische Gebiete Belfasts gehörten vor allem in den 1970er Jahren zu den Schauplätzen des Nordirlandkonflikts. Name und Wahlspruch Das irische Béal Feirste bedeutet „Mündung des Farset“ (ir. An Fhearsaid, irisch feminin). Gemeint ist die Einmündung in den Lagan. Der Name des Flusses Farset hat wiederum die Bedeutung „Sandbank“ aufgrund ausgeprägter Sandbänke an seiner Mündung. Er ist heute nicht mehr sichtbar und verläuft unterhalb der Bridge Street. Die Stadt hat den Wahlspruch Pro tanto, quid retribuamus? („Für so viel, was sollen wir dafür zurückzahlen?“). Der Spruch wurde bereits bei vielen Gelegenheiten als Aufruf zum Kampf interpretiert und als Schlachtruf verwendet, obwohl er eigentlich aus dem Bereich der Universität stammt und Dankbarkeit gegenüber der Alma Mater ausdrücken sollte. Geschichte 1177 entstand im heutigen Stadtgebiet eine normannische Burg. 1603 wurde Belfast von Sir Arthur Chichester gegründet. Angesichts der fortdauernden Aufstände im katholisch gebliebenen Irland wurde die Ansiedlung loyaler schottischer Presbyterianer speziell im Bereich Belfasts durch die Krone gefördert. Im 17. Jahrhundert bauten aus Frankreich geflohene Hugenotten die Leinenindustrie auf. Im 18. Jahrhundert erfolgte eine Erweiterung des Hafens. 1888 erhielt Belfast durch Queen Victoria das Stadtrecht. 1912 lief die in der Belfaster Werft Harland & Wolff gebaute Titanic von hier zu ihrer ersten Fahrt aus. Bei Unruhen in den Jahren 1920 bis 1922 vor dem Hintergrund des Irischen Unabhängigkeitskrieges starben knapp 500 Menschen. Bei der Eröffnung des neu gegründeten Parliament of Northern Ireland am 7. Juni 1921 in der Belfast City Hall machte König Georg V. einen bedeutenden Vorschlag für eine Aussöhnung zwischen Nord und Süd. Die Rede, entworfen von David Lloyd George auf Empfehlungen von Jan Smuts, öffnete die Türen für den formellen Kontakt zwischen der britischen Regierung und der republikanischen Administration unter Éamon de Valera. Im April und Mai 1941 kam es zu starken Schäden in Hafen und Stadt durch Bombardements der deutschen Luftwaffe. 1969 begannen die bürgerkriegsähnlichen Auseinandersetzungen zwischen militanten Gruppen der Katholiken und Protestanten (man spricht heute meist euphemistisch von „troubles“). Offiziell beendet wurden sie 1998 durch das so genannte Karfreitagsabkommen. Die stark gehemmte Entwicklung der Stadt kam danach in Gang. Wirtschaft und Tourismus entwickelten sich stärker. Am 16./17. Juni 2009 kam es in Belfast zu Ausschreitungen gegen dort ansässige Rumänen. Nach Aussagen der Betroffenen verließen sie ihre Wohnungen, nachdem es mehrere Nächte in Folge zu Angriffen gegen sie gekommen war, bei denen rassistische Parolen gerufen, Fenster eingeschlagen und Türen eingetreten worden waren. Die Polizei evakuierte daraufhin am 17. Juni über 100 Rumänen zum Ozone-Komplex in Belfast, nachdem sie eine Nacht in der City Church in der University Avenue verbracht hatten. Am 31. Mai 2011 fand in Belfast eine Gedenkveranstaltung an den Stapellauf der Titanic am 31. Mai 1911 auf der Werft Harland & Wolff statt, damals die größte Werft der Welt. Geographie Klima Stadtbild Am zentralen Donegall Square befinden sich das Rathaus (engl. , 1906, im Rahmen von Führungen zu besichtigen) und die Linen Hall Library, eine öffentliche Bibliothek, gegründet 1788. Hier findet der Interessierte alles zum bewaffneten Kampf der Irish Republican Army und zum Friedensprozess. In der Innenstadt befindet sich das Theater (engl. ), erbaut 1894 durch Frank Matcham. Gegenüber liegt der bekannteste Pub, der Crown Liquor Saloon, welcher auch der älteste Pub Nordirlands ist. An der Donegall Street, einen kurzen Fußmarsch von der City Hall entfernt, liegt die Kathedrale St. Anne’s der anglikanischen Church of Ireland. Das Schloss auf dem Cavehill (engl. ) geht auf eine Normannenburg des 12. Jahrhunderts zurück. Die Queen’s University hat rund 25.000 Studenten. Ihre Gebäude sind teilweise aus der Tudor-Zeit; sie hat einen vielbesuchten und besonders schönen Botanischen Garten. Neben der Queen’s University hat Belfast auch einen Campus der University of Ulster (mit Hauptsitz in Coleraine). Auf den Spuren des Nordirlandkonflikts kann sich der Besucher zur Peace Line begeben: In West Belfast (westlich der Schnellstraße „West Link“) trennt diese Mauer die Gebiete der Falls Road (Wohngebiet katholischer Republikaner) von der Shankill Road (protestantische Unionisten). Die regulären Stadtrundfahrtprogramme zeigen die propagandistischen, murals genannten Wandgemälde sowohl im Falls- wie im Shankill-Viertel. Etwa fünf Kilometer östlich der Innenstadt, in East Belfast, befindet sich das Gelände von Stormont Castle mit Sitz der Regierung von Nordirland. Die moderne Synagoge wurde 1964 eröffnet. Im vergangenen Jahrzehnt wurde das Flussufer neu gestaltet: Hotels und das Konferenzzentrum Waterfront Hall sind dort entstanden. An der Antrim Road im Norden Belfasts liegt der Zoo der Stadt. Wirtschaft und Infrastruktur Wirtschaft Seit Ende des 17. Jahrhunderts wuchs Belfast vor allem durch die Leinenindustrie zu einem bedeutenden industriellen Standort heran. Die wachsende Nachfrage auch nach Trinkwasser wurde Anfang des 20. Jahrhunderts mit dem Bau des Silent Valley Reservoir Rechnung getragen. Erst mit der Erweiterung des Hafens Ende des 18. Jahrhunderts gewann auch der Schiffbau an größerer Bedeutung. Die Stadt verfügt über das größte Trockendock der Welt der Werft Harland & Wolff. Die Werft hatte bis zu 30.000 Mitarbeiter. Heute sind es 200. In unmittelbarer Nachbarschaft zur Werft befinden sich in East Belfast die ausgedehnten Werkshallen des 1909 gegründeten Flugzeugherstellers Short Brothers, der sich zunächst bei der Herstellung des im Zweiten Weltkrieg eingesetzten Flugbootes S.25 Sunderland einen Namen machte. Ab den sechziger Jahren spezialisierte man sich auf den Bau von zivilen und militärischen Transportmaschinen und schrieb mit der Herstellung der „Short Belfast“, dem drittgrößten von Propellerturbinen angetriebenen Transportflugzeug der Welt, Luftfahrtgeschichte. 1989 wurde das Werk für 30 Millionen Pfund Sterling an die Firma Bombardier verkauft. Im Jahre 1979 errichtete die De Lorean Motor Company (DMC), das 1982 insolvent gewordene Unternehmen des amerikanischen Sportwagenbauers John De Lorean, eine Fabrik im Belfaster Vorort Dunmurry. Hier wurde bis 1983 der legendäre DeLorean DMC-12 produziert. Belfast ist der Sitz zweier Fernsehsender, des BBC Northern Ireland und des privaten Fernsehsenders UTV; die größten Zeitungen sind The Irish News und The Belfast Telegraph. Durch das Hafenviertel Titanic Quarter, in dem sich mit dem Northern Ireland Wissenschaftspark, dem Paint Hall Studio, dem Titanic-Themen-park, Public Record Office of Northern Ireland mehrere Wirtschafts- und Industriezweige angesiedelt haben, hat Belfast an britischen und internationalen Tourismus zugenommen. In einer Rangliste der Städte nach ihrer Lebensqualität belegte Belfast im Jahre 2018 den 68. Platz unter 231 untersuchten Städten weltweit. Die Hauptstadt der Republik Irland, Dublin, belegte Platz 34. Verkehr Es gibt keine Straßen- oder U-Bahn. Der öffentliche Personennahverkehr erfolgt über Busse, die sich im Zentrum der Stadt treffen. Das System ist sternförmig angelegt. Es gibt keine durchgehende Verbindungen von Nord nach Süd. Der Umsteigepunkt im Zentrum hat verschiedene Namen: City Centre, Donegal Square, Howard Street. Sie alle befinden sich aber am selben Platz oder in unmittelbarer Nähe des Platzes. Northern Ireland Railways betreibt den Bahnverkehr in Nordirland. Es bestehen von Belfast innernordirische Verbindungen nach Derry~Londonderry und Portrush über Ballymena und Coleraine, Bangor, Larne über Carrickfergus (mit Anschluss an Fähren nach Stranraer (Schottland) und Douglas (Isle of Man)), sowie Newry über Lisburn und Portadown; diese Züge fahren vom Bahnhof Belfast Great Victoria Street ab. Auf der Strecke in Richtung Portadown verkehren auch die gemeinsam mit der irischen Staatsbahn Iarnród Éireann betriebenen Schnellzüge Enterprise, letztere bedienen in Belfast den Bahnhof Lanyon Place. Belfast verfügt über zwei Flughäfen, den International Airport etwa 24 Kilometer westlich der Stadt und den unmittelbar östlich der Stadt gelegenen George Best City Airport, der über die Buslinie 600 mit der Innenstadt verbunden ist. Fährverbindungen bestehen vom Belfaster Fährhafen (Belfast Ferry Port) aus nach Liverpool (Stena Line) sowie nach Stranraer in Schottland (Stena). Im Sommer bedient die Isle of Man Steam Packet Company darüber hinaus noch die Route nach Douglas auf der Isle of Man. Kultur Belfast ist der Sitz des einzigen Sinfonieorchesters Nordirlands, des Ulster Orchestra. Die 1788 gegründete Linen Hall Library ist die älteste Bibliothek der Stadt. Das 1890 gegründete Ulster Museum bietet spektakuläre Funde des 1588 gesunkenen Schiffs „Girona“ (benannt nach der spanischen Provinz Girona), das zur spanischen Armada gehörte. Auf der östlichen Seite des Flusses Lagan befindet sich das Odyssey Center mit großem Saal für Sport und Konzerte, einem IMAX-Kino und einem großen interaktiven Museum, W5 genannt. Am 31. März 2012 wurde ein Titanic-Themen-Park eröffnet. Es liegt auf dem Gelände der früheren Werft Harland & Wolff und bildet das Zentrum eines neuen Stadtviertels, des Titanic Quarter in dem mit den Pain Hall Studios Europas vorgeblich größtes Filmstudio liegt. Sport Belfast hat einen der bekanntesten Eishockey-Clubs des Vereinigten Königreichs, die Belfast Giants, welcher in der 8700 Besucher fassenden Odyssey Arena beheimatet ist. Des Weiteren erfreuen sich die traditionellen irischen Sportarten Gaelic Football und Hurling besonders im katholisch-irischen Bevölkerungsteil hoher Beliebtheit. Die Spiele der Auswahl der Grafschaft Antrim in der jeweiligen Sportart werden im Roger-Casement-Park ausgetragen, ein 21.000 Zuschauer fassendes Stadion im Belfaster Stadtteil Andersonstown. In der NIFL Premiership, der höchsten Fußball-Spielklasse in Nordirland, sind derzeit fünf Belfaster Mannschaften vertreten. Dies sind neben dem 1879 gegründeten Cliftonville FC, des ältesten Fußballvereins in Irland, die wegen ihrer Dominanz in der Liga als Big Two bekannten Glentoran FC und Linfield FC wie auch der im Norden der Stadt ansässige Verein Crusaders FC und der Aufsteiger Donegal Celtic FC aus West Belfast. Bis Mitte des 20. Jahrhunderts lebte die nordirische Fußball-Liga von der Rivalität zwischen Linfield FC und dem in West-Belfast spielenden Belfast Celtic FC. 1949 zog sich der erfolgreiche katholische Verein zurück, nachdem in einem Spiel gegen Linfield Zuschauer das Spielfeld stürmten und Spieler tätlich angriffen. Bereits zwischen 1920 und 1924 sah sich Belfast Celtic gezwungen, sich wegen politischer Unruhen vom Spielbetrieb zurückzuziehen. Internationale Begegnungen der Auswahl des nordirischen Fußballverbands IFA (Irish Football Association) finden in aller Regel im rund 20.000 Besucher fassenden Windsor Park in South Belfast statt, der zugleich dem Linfield FC als Heimkulisse dient. Der gemischtreligiöse Fußballverein Bankmore Star löste sich 1972/73 im Zuge des Nordirlandkonflikts auf. Die Spiele des Clubs Ulster Rugby, der als Unterverband der Irish Rugby Football Union (IRFU) die Provinz Ulster bei der Pro14 repräsentiert, finden im Kingspan Stadium statt, das ein Fassungsvermögen von 12.500 Zuschauern besitzt. Der bisher größte Erfolg gelang Ulster Rugby im Januar 1999 mit dem Gewinn des Rugby-Europapokalwettbewerbs Heineken Cup. Belfast war unter anderem einer der Austragungsorte bei der Rugby-Union-Weltmeisterschaft 1991 und der Rugby-Union-Weltmeisterschaft 1999. Seit 2005 wird in der Waterfront Hall von Belfast das Snookerturnier um die Northern Ireland Trophy ausgetragen. In Stormont bestritt die Irische Cricket-Nationalmannschaft einige One-Day International gegen andere besuchende Cricket-Nationalmannschaften. Die 11. Special Olympics World Summer Games fanden vom 21. bis 29. Juni 2003 in Dublin und Belfast statt. Es waren die ersten Special Olympics World Summer Games, die außerhalb der USA veranstaltet wurden. Zu den Spielen reisten etwa 7.000 Athleten aus 160 Ländern (nach einer anderen Quelle: 166 Ländern) an, dazu 2.000 Trainer und 28.000 Familienangehörige. Vor Ort sorgten 30.000 Freiwillige für das Gelingen der Veranstaltung. Sie war die weltweit größte im Jahr 2003 und das größte Sport- oder Kulturereignis, das je in Irland stattfand. Zu den Spielen kamen 500.000 Besucher. Politik Parlament Im Juni 2022 wurde Tina Black von der Sinn Féin zur Bürgermeisterin (Lord Mayor) gewählt. Ausgehend vom Zentrum (City Center) spricht man in Belfast geografisch von Nord-, Süd-, Ost- und West-Belfast. Dies entspricht auch den vier Wahlkreisen zum britischen Parlament. Eine Autobahn sowie der Fluss Lagan mit seiner Mündung in die Bucht von Belfast sind hierbei gebaute bzw. natürliche Grenzen. Neben den Wahlen für das Unterhaus gibt es auch Wahlen für das nordirische Parlament und das Europaparlament. Für die lokalen Wahlen gibt es folgende Kreise, die auch den ortsüblichen Bezeichnungen der Stadtteile entsprechen: Castle: Bellevue, Castleview, Cavehill, Chichester Park, Duncairn, Fortwilliam Oldpark: Ardoyne, Ballysillan, Cliftonville, Legoniel, New Lodge, Waterworks Court: Crumlin, Glencairn, Highfield, Shankill, Woodvale Lower Falls: Beechmount, Clonard, Falls, Upper Springfield, Whiterock Upper Falls: Andersonstown, Falls Park, Glencolin, Glen Road, Ladybrook Balmoral: Blackstaff, Finaghy, Malone, Musgrave, Upper Malone, Windsor Laganbank: Ballynafeigh, Botanic, Rosetta, Shaftesbury, Stranmillis Pottinger: Ballymacarrett, Bloomfield, The Mount, Orangefield, Ravenhill, Woodstock Victoria: Ballyhackamore, Belmont, Cherryvalley, Island, Knock, Stormont, Sydenham Im Mai 2011 wurde mit dem 25-jährigen Niall Ó Donnghaile von der Sinn Féin der jüngste Bürgermeister (Lord Mayor) in der Geschichte Belfasts bestimmt. Städtepartnerschaften Persönlichkeiten Literatur Jon Calame, Esther Charlesworth: Divided Cities: Belfast, Beirut, Jerusalem, Mostar, and Nicosia. University of Pennsylvania, Philadelphia 2009, ISBN 978-0-8122-4134-1, S. 61–82 (= 4. Belfast). Weblinks Stadtverwaltung Fremdenverkehrsamt Belfast Castle Die Regionalregierung von Nordirland Das Museum zur Titanic Einzelnachweise District (Nordirland) Ort in Nordirland County Antrim County Down Ort mit Seehafen City (Nordirland) Hochschul- oder Universitätsstadt in Nordirland
Q10686
343.939576
50753
https://de.wikipedia.org/wiki/Halbmetalle
Halbmetalle
Die Halbmetalle sind Elemente und stehen im Periodensystem zwischen den Metallen und den Nichtmetallen. Sie können von der elektrischen Leitfähigkeit und vom Aussehen her weder den Metallen noch den Nichtmetallen zugeordnet werden. Alle Halbmetalle sind Feststoffe bei Normalbedingungen. Halbleiter ist ein Überbegriff und umfasst Halbmetalle und Verbindungshalbleiter gleichermaßen. Früher wurden Halbmetalle auch als Metalloide bezeichnet, wobei diese Bezeichnung auch für Nichtmetalle verwendet wurde. Definition Ältere Definition Die ursprüngliche Definition der Halbmetalle gilt heute in der Chemie als veraltet. Sie definiert die Halbmetalle als eine Reihe von Elementen, die in der 3. bis 6. Hauptgruppe des Periodensystems stehen. Zu den Halbmetallen gehören die folgenden Elemente: Diese Elemente weisen sowohl Eigenschaften von Metallen als auch Eigenschaften klassischer Nichtleiter auf. Sie kommen meist in zwei allotropen Kristallmodifikationen vor, von denen die eine metallischen, die andere nichtmetallischen Charakter trägt. Im Allgemeinen ist ihre elektrische Leitfähigkeit bei Raumtemperatur ziemlich klein, nimmt aber mit zunehmender Temperatur stark zu, im Gegensatz zu Metallen. Deswegen werden Halbmetalle auch als elementare Halbleiter bezeichnet. Tatsächlich sind aber viele dieser Elemente klassische Halbleiter wie Germanium oder Silicium. Ihre äußere Elektronenschale ist mit drei bis sechs Elektronen besetzt, deswegen können sie sowohl Elektronen abgeben als auch aufnehmen. Im Periodensystem finden sich die Halbmetalle in einer Diagonalen zwischen Bor und Astat. Elemente, die rechts oberhalb dieser Linie liegen, sind Nichtmetalle. Elemente, die links unterhalb dieser Linie liegen, sind Metalle. Neuere Definition In der neueren Definition der Halbmetalle, die zunehmend in der Chemie und vor allem in der Physik verwendet wird, bezieht man sich mehr auf die Bandstruktur der Festkörper als nur auf die physikalischen und chemischen Eigenschaften. Halbmetalle sind danach kristalline Festkörper mit einer Bandlücke, die den Wert Null oder einen Wert im Bereich der thermischen Energie hat, wobei die Boltzmann-Konstante und die absolute Temperatur ist. Typische Vertreter aus dem Bereich der Elemente sind die Kohlenstoff-Modifikation Graphit und graues Zinn (α-Sn). Eine exakte Zuordnung ist allerdings sehr schwierig, da, wie erwähnt, die unterschiedlichen Kristallmodifikationen meist unterschiedliche Eigenschaften besitzen. So ist weißes Zinn (β-Sn) ein Metall und graues Zinn (α-Sn) ein Halbleiter, letzteres kann aber auch als Halbmetall bezeichnet werden. Die Zuordnung sollte deshalb nach der häufigsten Modifikation bei Raumtemperatur und Normaldruck erfolgen. B, C (Graphit), Si, P (schwarzer), Ge, Se (graues), Te sind nach dieser Klassifikation Halbleiter. As, Sb, Po, At sind nach dieser Klassifikation Halbmetalle. Al, Ga, Sn, Bi, In, Pb, Tl sind Metalle. Eigenschaften Physikalische Eigenschaften Als Halbmetalle werden die chemischen Elemente bezeichnet, die in ihren Eigenschaften eine Zwischenstellung zwischen den Metallen und den Nichtmetallen einnehmen. Sie weisen halbleitende und amphotere Eigenschaften auf, sind aber nicht mit der Stoffgruppe der Halbleiter identisch. Es handelt sich bei Halbmetallen um Feststoffe, die teilweise sowohl metallische als auch nichtmetallische Modifikationen bilden. Dazu betrachtet man u. a. die elektrische Leitfähigkeit der kristallinen Feststoffe. Zahlreiche Halbmetalle haben Halbleitereigenschaften, d. h., sie weisen eine mittlere elektrische Leitfähigkeit auf, die mit steigender Temperatur wächst. Allerdings sind die Begriffe Halbleiter und Halbmetall keine Synonyme. So gibt es halbleitende Oxide und Polymere, die keine Halbmetalle, sondern Verbindungen sind. Die spezifische Leitfähigkeit von Halbleitern wie Silicium oder Germanium ist um mehrere Größenordnungen geringer als die der Metalle. Die elektrischen Eigenschaften der Halbleiter kann man mit dem Bändermodell erklären. Nach diesem Modell befinden sich die Elektronen im Valenzband, das durch eine Bandlücke von dem höher liegenden Leitungsband getrennt ist. In Halbleitern sind bei tiefen Temperaturen praktisch alle Elektronen im Valenzband. Bei den Elementen der 4. Hauptgruppe wie Silicium und Germanium ist dieses dann vollständig besetzt, sodass kein Strom fließen kann. Aber bereits bei Zimmertemperatur haben die Elektronen ausreichend Energie, um die Bandlücke zu überwinden und in das Leitungsband überzugehen. Die Leitfähigkeit nimmt dann mit der Temperatur stark zu. Chemische Eigenschaften Die Zwischenstellung der Halbmetalle zeigt sich auch im amphoteren Charakter der Elemente und ihrer Oxide. So lösen sich die meisten Halbmetalle sowohl in Säuren als auch in Basen. Die Oxide können ebenfalls mit Säuren und Basen Salze bilden. Von den meisten Halbmetallen existieren sowohl metallische als auch nichtmetallische Modifikationen. Auch im Periodensystem der Elemente nehmen die Halbmetalle eine Mittelstellung ein. Literatur Graham Chedd: Halbmetalle. Verlag DVA, Stuttgart, 1971, ISBN 3-421-02246-1. Franz Zach: Leistungselektronik – Ein Handbuch. 5. Auflage, Springer Verlag, Wiesbaden, 2015 ISBN 978-3-658-04898-3. Weblinks Einzelnachweise
Q19596
172.652312
383092
https://de.wikipedia.org/wiki/Literaturgeschichte
Literaturgeschichte
Der Begriff Literaturgeschichte hatte bis Mitte des 18. Jahrhunderts die Bedeutung „Berichte aus der gelehrten Welt“ und wurde seit etwa 1830 neu definiert als Feld der nationalen sprachlich fixierten Überlieferung, innerhalb derer die künstlerisch gestalteten Werke maßgeblich sind. Geschichte Die Geschichte der Literaturgeschichtsschreibung birgt einen Bruch mit der Wende ins 19. Jahrhundert. Diejenigen, die zwischen 1750 und 1850 Literaturgeschichte schrieben, gaben ihr originäres Thema – die Berichterstattung aus den Wissenschaften – Ende des 18. Jahrhunderts auf, und machten gerade das zum Gegenstand, was bislang für unwissenschaftlich, außerhalb der Literatur liegend, galt: Dichtung, Fiktionen. Der Themenwechsel hatte zur Folge, dass mit dem 19. Jahrhundert das Wort „Literatur“ neu definiert werden musste. Als „Bereich der sprachlichen Überlieferung“ wurde die Definition dabei so gestaltet, dass die Fachwissenschaften weiterhin ihre Arbeiten in „Literaturverzeichnissen“ listen konnten. In der sprachlichen Überlieferung nahmen jedoch – so die neue These der Literaturgeschichtsschreibung des 19. und 20. Jahrhunderts – die sprachlichen Kunstwerke einen zentralen Platz ein – als der Kern der nationalen Überlieferungen, als das Feld der ewig diskutierten Werke, das Feld der durch ihre Ästhetik herausragenden Werke, so die Versuche, zu erklären, warum Dramen, Gedichte und Romane „Literatur im engeren Sinne“ sein sollten. Im Folgenden soll das Entstehen der Literaturgeschichtsschreibung mitsamt dem von ihr vollzogenen Themenwechsel knapp skizziert werden. Von der Polyhistorie zur Literaturgeschichte, 1500–1650 Die moderne Literaturgeschichtsschreibung beginnt im 16. und 17. Jahrhundert als der Versuch, über die Wissenschaften – und das ist bis in das 19. Jahrhundert die „Literatur“ – Bericht zu erstatten. Anfänglich – das Aufkommen des Buchdrucks steigert die hier bestehenden Hoffnungen – gilt die Arbeit Großwerken, die das gesamte Wissen der Gelehrsamkeit systematisch wie Bibliotheken geordnet in sich bergen sollen. Die Polyhistorik scheitert jedoch bereits in ihren ersten Ansätzen. Das Problem ist dabei weniger das Aufkommen der Naturwissenschaften. Schwierig verlaufen die polyhistorischen Projekte vielmehr, da sie von Anfang an in ideologische Fixierungen ausarten: Ihre Autoren versuchen, philosophisch-theologische Aussagen darüber zu treffen, wie das Wissen und der mit ihm erfasste Kosmos geordnet sind. Die Ordnungsvorhaben werden unverzüglich als scholastische, rückwärtsgewandte gebrandmarkt, die Werke selbst kommen inhaltlich bei allen Ordnungsbestrebungen kaum über das Kompilieren von bereits vorhandenen Informationen heraus. Wer sie bedienen will, muss sich mühselig in die Ordnungsgedanken der Verfasser einarbeiten, er hantiert sodann mit schweren Bänden, die in nur wenigen Bibliotheken verfügbar sind. Kritik an bestehendem Wissen, Fachdiskussionen, finden sich in den polyhistorischen Werken kaum. Mit dem 17. Jahrhundert gewinnen drei neue Gruppen von Werken Bedeutung: das alphabetisch sortierende Lexikon, die bibliographisch ausgerichtete „Historia Literaria“ oder „Geschichte der Gelehrsamkeit“ und das literarische Journal. Das Lexikon tritt das Erbe der Polyhistorik als das Werk an, das das Wissen selbst anbietet. Universallexika bleiben dabei rare Projekte. Der Markt expandiert mit Fachlexika und ab dem Anfang des 18. Jahrhunderts mit kleinen Lexika, Zeitungs- oder Conversations-Lexica, die Wissen in Kürze im tragbaren Format bieten, ausgerichtet auf die Zeitungen, die selten Informationen zu den historischen Schauplätzen mitliefern. Die „Historia Literaria“ oder „Geschichte der Gelahrheit“ (heute Gelehrsamkeit) wird zum bibliographischen Projekt. Sie bietet kleine Nachschlagewerke, die die Wissenschaften nach allen Fachgebieten und Forschungsfragen ordnen und untergliedern, und dabei Punkt um Punkt notieren, welche Werke im jeweiligen Gebiet von Wissenschaftlern welcher Nation verfasst, die wichtigsten sind. Gekauft werden diese Nachschlagewerke primär von Studenten und angehenden Wissenschaftlern, die nach ihnen in ihren eigenen wissenschaftlichen Arbeiten Fußnoten setzen können. Das literarische Journal wird in der zweiten Hälfte des 17. Jahrhunderts zum Renner auf dem Buchmarkt. In monatlichen Ausgaben bietet es Überblick über die wichtigsten wissenschaftlichen Neuerscheinungen und – bei naturwissenschaftlicher Ausrichtung – Erfindungen. Die Berichte bieten Exzerpte aus den besprochenen Werken samt Seitenangaben zu wichtigen Zitaten. Zu den einzelnen Nummern erhält der Bezieher in der Regel am Ende des Jahres ein Register, das es ihm ermöglicht, sein wissenschaftliches Journal als Fachlexikon zu benutzen. Karriere macht das literarische Journal um 1700 vor allem, da es sich zum Träger eines fortgesetzten Raisonnements über aktuelle Debatten der Forschung entwickelt, und dabei öffentlichen Debatten aus Politik und Religion Raum bietet. Im Lauf des 18. Jahrhunderts öffnen sich die wichtigsten literarischen Journale dem Bereich der belles lettres, der damit ein zentrales Feld im Austausch über Literatur wird. Der Siegeszug der belles lettres, 1600–1750 Der Buchmarkt untergliederte sich früh in zwei Bereiche: den der Literatur für die Gelehrten und den der Veröffentlichungen für das breitere lesende Publikum, das Gebetbücher, Heiligenleben, populäre Historien, vor allem aber Zeitungen verlangte. Beide Bereiche waren im Design deutlich voneinander unterschieden. Kostbar und fein gedruckt, vor allem auf Latein erschien die Literatur in den vier Wissenschaften Theologie, Jurisprudenz, Medizin und Philosophie. In lieblos gesetzten mit einfachen Holzschnitten ausgestatteten Publikationen sprach dagegen die billige Massenware das Publikum an. Mit dem 17. Jahrhundert entsteht ein neuer, dritter Markt, der der belles lettres. Bereits der Name ist Programm: Die hier gebotenen Publikationen gehören zum gehobenen Marktsegment, zu den lettres, den Wissenschaften, der Literatur – indes nicht zur pedantischen akademischen Gelehrsamkeit, sondern zu einem Feld, das sich eher durch seine Annehmlichkeit auszeichnet, durch Geschmack und Anspruch. Feine Kupferstiche sind hier statt billiger Holzschnitte geboten, Französisch und elegante moderne Landessprachen, statt Gelehrtenlatein oder abgeschmackter Sprache aus dem niederen Schrifttum. Zum Markt der belles lettres gehören aktuelle skandalöse Historien, Romane, Memoires, Reiseberichte, Journale. Das Publikum ist aristokratisch, bürgerlich-städtisch, es umfasst die Frauen, denen die akademische Gelehrsamkeit verwehrt ist, und den gelehrten Leser, der neben seinem Fach noch Interessen am aktuellen Geschehen hat. Der neue Markt rangiert im Englischen unter dem französischen Wort oder unter dem Wort „polite literature“; in Deutschland ist er im ausgehenden 17. Jahrhundert der Bereich der „galanten Wissenschafften“, ab Mitte des 18. Jahrhunderts: der Bereich der „schönen Wissenschaften“, oder, eleganter, der „schönen Literatur“. Die Literaturbesprechung steht dem neuen Markt zu Beginn des 18. Jahrhunderts noch mit Vorsicht gegenüber. Das Journal de Sçavans oder ihm nacheifernd die Deutschen Acta Eruditorum sind wissenschaftliche Journale. Deutlich bestimmt sie jedoch mit dem Boom des Journalmarkts, der Ende des 17. Jahrhunderts sich abzeichnet, das Bestreben, die sich ausweitende Leserschaft zu befriedigen. Zu diesem Zweck lassen die populäreren Blätter regelmäßig einzelne Rezensionen von Publikationen aus dem Bereich der belles lettres zu, die zwar nicht zur Literatur im aktuellen Sinne gehören, jedoch breiteres Interesse auch der Gelehrtenschaft beanspruchen können. So rezensieren die Deutschen Acta Eruditorum 1713 gänzlich ungeniert die skandalöse Atalantis Delarivier Manleys, ein als Roman getarntes Enthüllungsbuch angeblicher Machenschaften der letzten Londoner Administration. Der neue Besprechungsgegenstand gewinnt jedoch erst in der zweiten Hälfte des 18. Jahrhunderts Kraft, als die Poesie national geführte Diskussionen erobert. Die Poesie wird Gegenstand der nationalen Literaturdebatte, 1720–1780 Die „belles lettres“ sind nur indirekt ein Vorläufer unserer heutigen Literatur. Im Deutschen lebt ihr Markt mit dem Markt der Belletristik fort, und das kennzeichnet die wichtigsten Unterschiede: Man kann von den „Literaturen“ der Nationen sprechen, es gibt jedoch nur eine einzige Belletristik. Literatur wird diskutiert von Literaturkritikern und Literaturpäpsten. Die Belletristik blieb dagegen ein Markt ohne sekundären Diskurs. Die Belletristik umschließt die Literaturen, doch bietet sie unendlich viel mehr – nahezu alles, was breiteres Interesse beansprucht, ist im Buchhandel Belletristik. Unsere heutige Vorstellung von Literatur entsteht, als nach 1720 die nationale Poesie – sie tut dies anfänglich vor allem in Deutschland – das Interesse der Gelehrsamkeit auf sich zieht. Poesie ist im 17. und 18. Jahrhundert wenig mehr als der Bereich der gebundenen Sprache. Im Verlauf des 17. Jahrhunderts entwickelte sich die Oper in ihren Spielformen des italienischen und des französischen Stils zum zentralen Ort der poetischen Produktion. Lyrik wurde veröffentlicht, um vertont zu werden. Hinzu kam, verachtet von jedem, der Geschmack hatte, die Panegyrik und die gesamte kommerzielle Gedichtproduktion, die zu Beerdigungen, Hochzeiten und Jubiläen in Auftrag gegeben wurde. Zu Beginn des 18. Jahrhunderts sieht man die Poesie am ehesten in einer Krise – korrumpiert überall dort, wo sie in Auftrag gegeben verfasst wird, und skandalös, wo sie sich dem Opern-Betrieb und der galanten Lieddichtung anbietet. Die 1720er und 1730er erleben eine massive Kritik an den Opern, gerade von gelehrter Seite aus. Im Interesse der öffentlichen Moral fordern im deutschsprachigen Raum Johann Christoph Gottsched und seine Mitkritiker eine Neuausrichtung der Poesie, in der die aristotelische Poetik zum Zuge kommen soll. Die Oper, das Lied, die Cantate werden dabei nicht abgeschafft, jedoch wird festgelegt, dass der öffentliche Austausch diesen Bereichen nicht gilt – er gilt, und dies können die Verfasser aktueller Journale, da sie über Öffentlichkeit verfügen, festlegen – einer Poesie, die der Nation dient, große verantwortungsbewusste Autoren hervorbringt, wichtige Diskussionen zulässt. Das Ergebnis ist im Verlauf des 18. Jahrhunderts eine Zweiteilung des Marktes: Auf der einen Seite besteht der Markt der belles lettres fort, er entwickelt sich als internationaler Markt der Belletristik. Auf der anderen Seite können es Autoren im Verlauf des 18. Jahrhunderts zunehmend riskieren, „anspruchsvolle“ Dichtung zu schreiben, Dichtung, die sich erst in dem Moment verkauft, in dem die Kritik sie bespricht und ihre Lektüre empfiehlt. Es entsteht eine öffentlich diskutierte Poesie gegenüber einem Markt, der der Trivialisierung überlassen bleibt. Die „anspruchsvolle“, auf gesellschaftliche Beachtung Anspruch erhebende Dichtung gewinnt an Bedeutung, als die erste Generation der Kritiker, die noch die Rückbesinnung auf Aristoteles forderte, einer zweiten Generation weicht, die sich dem neuen bürgerlichen Drama und vor allem dem Roman offen stellt. Diskutierte man Poesie bislang vornehmlich auf die Frage hin, wie perfekt Gattungsregeln eingehalten wurden, so kommen in der zweiten Hälfte des 18. Jahrhunderts viel brisantere Diskussionen auf – jene die Pierre Daniel Huet 1670 noch, ohne Gehör damit zu finden, mit seinem Traitté de l’origine des romans in den Raum stellte, als er vorschlug, Roman und Poesie grundlegend als fiktionale Produktionen und damit als Spiegelbilder der aktuellen Sitten einer Nation zu lesen. Hatte sich der Roman Ende des 17. Jahrhunderts zum wichtigsten Medium der chronique scandaleuse entwickelt, so kann die gelehrte Kritik des 18. Jahrhunderts Romane fordern, die die Sitten reformieren, Romane, die an Samuel Richardsons Pamela anknüpfen. Öffentliche Beachtung gewinnt die Poesie-Diskussion in gelehrten Journalen in der zweiten Hälfte des 18. Jahrhunderts vor allem in Deutschland, wo sie das beste nationale Debattenfeld anbietet. Deutschland ist territorial und konfessionell zersplittert; es gibt außer der gelehrten, doch damit elitären Diskussion kein breiteres überregional funktionierendes Debattenfeld. Hier erregt die Forderung nach einer deutschen Dichtung, die sich von der französischen trennt, die englische imitiert und sich dann auch noch von dieser emanzipiert, öffentliche Brisanz im Ringen um nationale Identität. Die nationale Literaturgeschichte definiert sich neu, 1780–1850 Ende des 18. Jahrhunderts befindet sich die antiquierte Literaturgeschichtsschreibung in einer Krise: Die Wissenschaften richten sich nun zunehmend auf die modernen Naturwissenschaften aus, die Rekapitulation alter Autoritäten wird obsolet, gleichzeitig hat sich die öffentliche Literaturdiskussion gewandelt: sie gilt fast ausschließlich Romanen, Dramen und Gedichten. Das Ergebnis der Entwicklung zeichnet sich in den letzten Literaturgeschichten alten Stils ab, etwa im Grundriss einer Geschichte der Sprache und Literatur der Deutschen von den ältesten Zeiten bis auf Lessings Tod von Erduin Julius Koch, 1 (Berlin: Verlag der Königl. Realschulbuchhandlung, 1795). Wie die alten Werke der Historia Literaria ist die späte Literaturgeschichte des 18. Jahrhunderts eine Bibliographie, die nach Sektionen gliedert und untergliedert. Die Wissenschaften nehmen jedoch nun nur noch wenig Platz ein. Die „schöne Literatur“ mit den Gattungen der Dichtung hat das Werk erobert. Mit der Geschichte der poetischen National-Literatur der Deutschen von Dr. G. G. Gervinus. Erster Theil. Von den ersten Spuren der deutschen Dichtung bis gegen Ende des 13. Jahrhunderts (Leipzig: W. Engelmann, 1835) wird das alte Projekt in das neue überführt: Die Literatur der Nation ist laut Titel ihre überlieferte Dichtung, der neue Literaturkenner liefert jedoch, wie er in der Vorrede eröffnet, keine Bibliographie mehr, sondern eine interpretierende Erzählung dazu, wie die Dichtung sich in den verschiedenen Epochen der Nation entfaltete – im Mittelalter anfänglich an den Höfen, dann zunehmend korrumpiert durch die Mönche, im Humanismus beherrscht von Gelehrten, endlich im 18. Jahrhundert befreit durch eine anfänglich gelehrte, dann jedoch rasch dazulernende Kritik… Die neue Literaturgeschichte liefert Diskussionsstoff, ihr Thema ist der Charakter der Nation unter wechselnden kulturellen und politischen Bedingungen – und sie findet unverzüglich Erwiderungen von allen politischen Interessengruppen, die auf eine eigene Darstellung der Literaturgeschichte dringen müssen, wenn sie gewährleisten wollen, dass ihre Themen öffentlich diskutiert werden. Im Hintergrund der modernen Literaturgeschichte steht ab Mitte des Jahrhunderts der moderne Nationalstaat, der der Literatur der Nation, den größten Dichtern der Nation und den entscheidenden Epochen ihrer Geschichte öffentliche Beachtung im kulturellen Leben wie in allen Institutionen der Bildung zusichert. Spätestens damit, dass die Texte der nationalen Dichtung im 19. Jahrhundert im öffentlichen Schulwesen die Funktionen gewinnen, auf die bislang religiöse Texte allein zugeschnitten schienen (nämlich interpretiert und diskutiert zu werden, zu individueller Besinnung und Ausrichtung Anlass zu geben), hat die Literatur eine neue Funktion gewonnen: Sie ist das Feld, auf dem nahezu jede Frage der Gesellschaft behandelt werden kann, und bis in den Schulunterricht hinein behandelt werden wird – ein Feld, das keine gesellschaftliche Gruppe unbeachtet lassen kann. Entscheidend geht es von nun an darum, den Kanon der literarischen Werke zu bestimmen und ihre Diskussion festzulegen. Der Wettstreit hierüber findet zwischen Autoren statt, die sich unterschiedlicher Literaturförderung und einem unterschiedlichen Umgang mit Literatur anbieten, er findet in den Medien in Auseinandersetzung mit der Literatur – alter und neuer, nationaler und internationaler – statt, er findet im akademischen Bereich zwischen den verschiedenen Schulen der Literaturkritik statt, die letztlich die Gesellschaft mit Musterdiskussionen versorgen. Probleme einer Ausrichtung der Literaturgeschichtsschreibung Vom Nutzen des Themenwechsels, der Dramen, Romane und Gedichte zu „Literatur“ machte Der Themenwechsel, auf den sich die Literaturdiskussion einließ, indem sie sich Dramen, Romanen und Gedichten zuwandte, trug öffentlichen Desideraten Rechnung. Er veränderte den Buchmarkt, vor allem aber erlaubte er der Literaturwissenschaft eine entschieden breitere Kommunikation mit der Gesellschaft. Die Entskandalisierung der Poesie- und Romanproduktion Die Hinwendung der wissenschaftlichen Debatte zur poetischen Produktion und zur Romanproduktion erfolgte vor allem in Reformangeboten. Die aktuelle Poesieproduktion schien dem wissenschaftlichen Diskurs der 1730er vom Pfad abgekommen zu sein, den Aristoteles vorgab. Gottscheds Mitstreiter mieden es, die Opern entschiedener als Ort des Sittenverfalls zu brandmarken. Sie forderten jedoch ein Drama, das ganz eigene Bedeutung hätte, diskutierbare Aussagen machte, das hervorgebracht würde von verantwortungsbewussten mit bürgerlichen Namen bekannt werdenden Autoren. Unreformierbar schien zur selben Zeit noch der Roman. Mit dem Ende des 17. Jahrhunderts hatte er sich in das Skandalgeschäft begeben. Auch hier stand Mitte des 18. Jahrhunderts die Diskussion besserer und verantwortungsbewusster verfasster Romane im Raum. Was nicht abgeschafft werden konnte – die Opernproduktion und die Produktion skandalöser Romane – konnte (so der Neuansatz) erfolgreich in der öffentlichen Beachtung herabgemindert werden als eine jeder Debatte unwürdige triviale Produktion, der gegenüber der Blick den ausgesucht hohen Kunstwerken gelten musste. Tatsächlich griffen in der neuen, literaturfähigen Poesie- und Romanproduktion mit dem ausgehenden 18. Jahrhundert Mechanismen der Verantwortung. Autoren stellten sich hinter ihre Werke und erhoben Anspruch auf den Ruhm, die Sitten ihrer Nation mit ihren Werken gebessert zu haben. Der Kulturbetrieb der neuen Nationen gab der moralisch wertvollen Produktion neuen Stellenwert, ob er nun Schüler über die große Dichtung „Besinnungsaufsätze“ schreiben ließ oder Institutionen wie den Literaturnobelpreis begründete, mit dem Autoren gewürdigt werden, die sich als das „Gewissen ihrer Nation“ betätigen. Tatsächlich verließ die Skandalproduktion die Oper wie den Roman. Ihr neues Medium wurde der Journalismus, der mit der Boulevardpresse ein eigenes Feld erhielt. Das war nicht das Ende skandalöser Romane, Dramen und Gedichte – die neuen Skandale der Literatur sind jedoch gänzlich andere. Junge Autoren rebellieren nun gegen festgefahrene Moralvorstellungen, gegen alte Ästhetiken und überholte Kunstvorstellungen, sie sind Teil des Ringens um Verantwortung im literarischen Leben. Der skandalöse Roman des frühen 18. Jahrhunderts lebt viel eher im „Enthüllungsjournalismus“ als im Roman des 20. und 21. Jahrhunderts fort. Die Marktreform, auf die es die frühe Literaturdiskussion absah, kam tatsächlich zustande. Die Geburt der Literatur aus dem Geist der Sekundärliteratur Die moderne Literaturwissenschaft basiert auf dem Selbstbild, dass sie ein beobachtender, analysierender, wissenschaftlicher, sekundärer Diskurs sei. Die Literatur besteht (so die verbreitete Aussage der Literaturkritik) schon viel länger als die Literaturwissenschaft. Sie besteht seit Anbeginn der Menschheit, seit den ersten Überlieferungen, die noch mündlich geschahen. Sie verlief schließlich in den „literarischen Gattungen“ bis in die Literatur der Gegenwart hinein – so die etablierte Sicht. Der sekundäre Diskurs wende sich unter Wahrung wissenschaftlicher Distanz der Literatur zu. Tatsächlich dürfte es andersherum sein: Die Werke entwickelten sich in ganz verschiedenen Feldern und waren am Ende, in den 1760ern größtenteils verschollen. Die Literaturwissenschaft legte fest, was „Literatur“ sein sollte. Sie schuf die Literaturen, die wir heute untersuchen. Die großen Traditionslinien, die heute bestehen, mussten dabei im 19. Jahrhundert neu begründet werden: Die „Literatur des Mittelalters“ war verloren, die Romane und Dramen des „Barock“ waren zu Beginn des 19. Jahrhunderts unbekannt. Die Vergangenheit der Literatur musste rekonstruiert werden. Und in der Gegenwart verlief der Eingriff noch viel drastischer: Die Literaturrezension entschied in offenem Streit darüber, welche Werke der Gegenwart und jüngsten Vergangenheit als Literatur diskutiert werden sollten, und welche Gattungen damit zu den literarischen Gattungen wurden. Dass die Literaturwissenschaft die Literatur zu eigenem Nutzen definierte, um damit ein breit diskutierbares Thema zu gewinnen, ist eine heikle Feststellung. Wenn dem so ist, dann sind alle Versuche, schlicht auf die Literatur zu sehen und dabei zu erfassen, was Literatur eigentlich ist und auszeichnet, nicht das, was sie vorgeben. Sie sind dann tatsächlich Versuche, aus dem Bereich der Wissenschaften heraus festzulegen, was Literatur sein soll, und was mit ihr adäquaterweise gemacht werden soll – Interaktionen der Literaturkritik mit dem Buchmarkt, mit Autoren und mit der Gesellschaft, die Bücher liest und Diskussionen aufgreift. Die unbequeme Lösung erklärt allerdings dann auch, warum jede Literaturdefinition sofort Widerspruch der Öffentlichkeit auf sich zieht, die hier vielfältigste Interessen an der Literaturdebatte wahren muss. Von Problemen im Umgang mit „Literatur“, die seit 1750 verfasst wurde „Anspruchsvolle“ Literatur, die seit 1750 geschaffen wurde, spricht gezielt die Kritik an, sie unterscheidet sich grundlegend von der vorangegangenen Produktion an Romanen, Dramen und Gedichten. Wir verfügen mit ihr der modernen Literatur über Hinweise darauf, wie sie diskutiert sein will. Zu dem, was die Autoren taten, um Diskussionen zu entfachen, kommt, was die Verlage tun, um die Literaturkritik zu erreichen. Anspruchsvolle Literatur verkauft sich primär über den sekundären Diskurs. Trivialromane können auf jede öffentliche Debatte verzichten. Ein moderner Roman, ein junger Dramatiker sind dagegen nichts, wenn es ihnen nicht gelingt, Rezensionen auf sich zu ziehen, und sie haben gewonnen, wenn sie eine breite Würdigung im Feuilleton finden. Eine vollständigere Literaturgeschichte der Moderne wird das komplette literarische Leben erfassen, das dem einzelnen Stück und dem einzelnen Roman Funktionen im gesellschaftlichen Leben gibt: Existenz auf dem Buchmarkt, Anerkennung in der Presse, Behandlung in Schulen und literaturwissenschaftlichen Seminaren der Universitäten. Von Problemen im Umgang mit „Literatur“, die vor 1750 verfasst wurde Problematisch bleiben unsere Rekonstruktionen der Literaturgeschichte. Die meisten Zusammenhänge, die sie etablieren, dürften eine erneute Befragung verdienen. Die heutigen literarischen Gattungen gab es nicht Das Konzept der literarischen Gattungen wird in der Forschung vorsichtig erneut zu befragen sein. Dass Drama, Epos und Lyrik die drei großen Felder der literarischen Überlieferung seien, geht an der geschichtlichen Konsistenz der Überlieferung vorbei. Man kann dies im Blick auf Aristoteles postulieren, doch begibt man sich damit in eine Nachfolge der gelehrten Kritik des 17. und 18. Jahrhunderts – einer Kritik, die genau mit diesen Setzungen den Markt veränderte. Die Nationalliteraturen bestanden nicht Gänzlich fragwürdig ist unsere Untersuchung der Nationalliteraturen und der Vergleich der Literaturen durch die Komparatistik. Die von uns untersuchten Autoren kannten vor 1750 kaum die Werke ihrer Literatur. Weit gerechter wird man der Produktion vor 1750 wenn man sie betrachtet, wie man die Produktion von Belletristik heute betrachten würde: als eine einzige internationale aktuelle Produktion, die nationale Ausprägungen fand, in der jedoch letztlich überall internationale Ware in Übersetzungen neben einheimischen Büchern in die Auslagen kam. Die Autoren schrieben für diesen Markt und lieferten, was er am Ort der Veröffentlichung hoffentlich so noch nicht vergleichbar bot. Poesie vor 1750 war nicht, was Literatur uns heute ist Eine erneute Erforschung der Poesieproduktion vor 1750 könnte den musikorientierten Feldern zentralen Stellenwert geben, und dies nicht auf der Suche nach dem „Literaturbegriff des Barock“ tun, der angeblich einem opernfeindlichen „Literaturbegriff der Aufklärung“ am Ende unterlag. Es gab einen Markt, auf dem die Oper als Poesie florierte und diesem gegenüber eine gelehrte Kritik, die die Oper mit Distanz betrachtete. Der Roman gehörte vor 1750 weder zur Poesie noch zur Literatur Der Roman gehörte vor 1750 weder zur Poesie noch zur „Literatur“ – er war Teil der „historischen Schriften“ und in seiner aktuellen Produktion der belles lettres deren virulentester und skandalösester Part. Wie sich der Roman auf das Besprechungswesen zubewegte, ist für das 18. Jahrhundert noch weitgehend ununtersucht; welche Funktionen er zuvor erfüllte, als er das literarische Besprechungswesen noch weitgehend affrontierte, nicht minder. Was vor 1750 öffentliche Auseinandersetzungen bestimmte, bleibt weitgehend unbeachtet Unser Austausch über Dramen, Romane und Gedichte schuf einen neuen Ort gesellschaftlichen Streits – mit großem Erfolg. Literatur im neuen Sinne verdrängte die bisher gewichtigste Produktion, die Theologie, auf dem Buchmarkt wie in den allgemeinen Diskussionen. Der Austausch über Dramen und Gedichte entwickelte sich mit größter Dynamik im späten 18. Jahrhundert in Deutschland. Er gewann im Nationalismus der deutschen Romantik Gewicht. Frankreich adoptierte die neue Literaturdebatte nach der französischen Revolution als des bürgerlichen Staates würdige. Deutsche und französische Literaturwissenschaftler boten schließlich England die ersten Geschichten der englischen Literatur im neuen Zuschnitt – die Nation, die ungebrochen über nationale Diskurse verfügte, sah lange Zeit keinen Anlass dazu, die Bedeutung des Wortes „Literatur“ zu ändern. Die moderne Literaturgeschichte setzte sich international durch und schuf die heute bestehenden nationalen Philologien und sie inspirierte Parallelgründungen: Die Kunst wurde neu definiert als Feld der bildenden Künste, die Musik ließ sich auf einen Wettstreit nationaler Tonkunst ein, der in der zweiten Hälfte des 19. Jahrhunderts entbrannte. Ein vorsichtigerer Umgang mit der Literaturgeschichte wird dem öffentlichen Leben vor 1750 und seinen ganz eigenen Themen gelten, und der Literaturkritik kritisch gegenüberstehen müssen: Sie veränderte den Markt, dem sie sich zuwandte, und sie schuf im Wesentlichen erst das Feld, das uns heute als „die Literatur“ beschäftigt. Werke Christophe Milieu (Christophorus Mylaeus): De scribenda universitatis rerum historia libri quinque. Basileae, 1551, darin Buch 5 zur „Historia literaturae“. Jacob Friedrich Reimmann: Versuch einer Einleitung in die Historiam Literariam. Rengerische Buchhandlung, Halle 1708. Georg Stolle: Kurtze Anleitung zur Historie der Gelahrheit. 1, Neue Buchhandlung, Halle 1718. Johann Friedrich Bertram: Anfangs-Lehren der Historie der Gelehrsamkeit; Sammt einem Discurs uber die Frage, ob es rathsam sey, Historiam literariam auf Schulen und Gymnasiis zu tractiren. Renger, Braunschweig 1730. Johann Andreas Fabricius: M. Johann Andreä Fabricii. […] Abriss einer allgemeinen Historie der Gelehrsamkeit. Weidmann, Leipzig 1752. Hieronymus Andreas Mertens: Hodegetischer Entwurf einer vollständigen Geschichte der Gelehrsamkeit für Leute, die bald auf die Universitäten gehen wollen, oder kaum dahin gekommen sind. Eberhard Kletts sel. Wittwe und Franck, Augsburg 1779–1780. Carl Joseph Bouginé: Handbuch der allgemeinen Litterargeschichte nach Heumanns Grundriß. Bde. 1 ff, 1789 Grundriss einer Geschichte der Sprache und Literatur der Deutschen von den ältesten Zeiten bis auf Lessings Tod von Erduin Julius Koch. 1 Verlag der Königl. Realschulbuchhandlung, Berlin 1795. Johann Gottfried Eichhorn: Allgemeine Geschichte der Cultur und Litteratur des neueren Europa. Göttingen 1796–1799. Johann Gottfried Eichhorn: Litterärgeschichte. Johann Georg Rosenbusch, Göttingen 1799. Johann Gottfried Eichhorn: Geschichte der Litteratur von ihrem Anfang bis auf die neuesten Zeiten. Vandenhoeck und Ruprecht, Göttingen 1805–1812. Ludwig Wachler: Handbuch der Geschichte der Literatur. J.A. Barth, Leipzig 1833. Einleitung und Geschichte der alten Literatur. Geschichte der Literatur im Mittelalter. Geschichte der neueren Nationalliteratur. Geschichte der neueren Gelehrsamkeit. Geschichte der poetischen National-Literatur der Deutschen von Dr. G. G. Gervinus. Erster Theil. Von den ersten Spuren der deutschen Dichtung bis gegen Ende des 13. Jahrhunderts. W. Engelmann, Leipzig 1835. Vorlesungen über die Geschichte der deutschen National-Literatur von Dr. A. F. C. Vilmar. 2. Auflage. Elwert’sche Universitäts-Buchhandlung, Marburg/ Leipzig 1847. Siehe auch Literaturgeschichte als Provokation der Literaturwissenschaft Rezeption persischer Literatur im deutschsprachigen Raum Literatur Jan-Dirk Müller: Literaturgeschichte/Literaturgeschichtsschreibung. In: Erkenntnis der Literatur. Theorien, Konzepte, Methoden der Literaturwissenschaft. hrsg. v. D. Harth und P. Gebhardt. Stuttgart 1983, S. 195–227. (2. Aufl. 1989) Michael S. Batts: A History of Histories of German Literature (= Canadian Studies in German Language and Literature 37) New York/Bern/Frankfurt a. M./Paris 1987, ISBN 0-8204-0415-2. Jürgen Fohrmann: Projekt der deutschen Literaturgeschichte. Entstehung und Scheitern einer nationalen Poesiegeschichtsschreibung zwischen Humanismus und Deutschem Kaiserreich. Stuttgart 1989. Olaf Simons: Marteaus Europa oder Der Roman, bevor er Literatur wurde. Amsterdam/Atlanta 2001, ISBN 90-420-1226-9, S. 85–94 und S. 115–193. Matthias Buschmeier: Literaturgeschichte nach dem Ende der Theorie? These zu den (Un-)Möglichkeiten einer bedrohten Gattung. In: IASL 36,2 (2011), , S. 409–414. Matthias Buschmeier, Walter Erhart, Kai Kauffmann (Hrsg.): Literaturgeschichte. Theorien – Modelle – Praktiken. De Gruyter, Berlin / Boston 2014. Literaturgeschichte im Deutschunterricht Hermann Korte: Ein schwieriges Geschäft. Zum Umgang mit Literaturgeschichte in der Schule. In: Deutschunterricht 6 (2003), S. 2–10. Weblinks Einzelbelege
Q6497044
112.967075
83723
https://de.wikipedia.org/wiki/Flora
Flora
Als Flora (auch Pflanzenwelt) wird der Bestand an Pflanzensippen (z. B. Familien, Gattungen, Arten und Unterarten) und typischen Pflanzengesellschaften einer bestimmten Region beziehungsweise die systematische Beschreibung ihrer Gesamtheit bezeichnet. Wird vorrangig die Gesamtheit der artübergreifenden Eigentümlichkeiten betrachtet (gleichartige Verteilungsmuster, Gestalt- und Wuchsformen), spricht man von der Vegetation. Verzeichnisse, in denen die Pflanzenwelt eines Gebietes – oft mit einem Bestimmungsschlüssel und Abbildungen – aufgelistet wird, nennt man ebenfalls Flora. Diese Bedeutung ist vermutlich sekundär aus der Bedeutung „Pflanzenwelt einer bestimmten Region“ entstanden. Bezeichnung Die Bezeichnung Flora leitet sich vom lateinischen Namen Flora, der römischen Göttin der Blumen und der Jugend, ab. Spätestens seit dem Ende des 16. Jahrhunderts wird diese Göttin metonymisch zunächst in der Dichtung, später dann auch in anderen Texten, für die Pflanzenwelt einer bestimmten Region verwendet. Der Pflanzenwelt steht die Tierwelt – die Fauna – gegenüber, benannt nach der römischen Göttin Fauna. Flora bezeichnet im Allgemeinen auch Organismen mit autotropher Ernährung. Inhalt Ein Florenreich ist jenes große Gebiet, das sich durch einen selbständigen Vegetationscharakter und eine unabhängige Entstehungsgeschichte (Phylogenese) der dortigen Pflanzenwelt auszeichnet und somit auch Pflanzenarten und höhere Pflanzentaxa beherbergt, die in keiner anderen Gegend vorkommen (Endemiten). Zusammengehörige Arten stellen ein Florenelement dar – dieses kann sich großräumig auf ein Florenreich beziehen oder nur auf ein Teilgebiet –, eine Florenzone (Vegetationszone). Dass Bakterien früher der Pflanzensystematik zugeordnet waren, hat sich in der Bezeichnung „Bakterienflora“ (als der Gesamtheit aller ein bestimmtes Habitat besiedelnden Bakterien) erhalten. Auch die Pilze waren lange Zeit dem Pflanzenreich zugeordnet. Robert Whittaker hat ihnen 1969 ein eigenes Reich, das Regnum „Fungi“, zugestanden. Die Bezeichnung „Funga“ anstatt „Pilzflora“ hat sich jedoch (noch) nicht endgültig durchgesetzt. Siehe auch Alpenflora Literatur Carus Sterne, Aglaia von Enderes, Werner Hopp: Unsere Pflanzenwelt. Berlin 1961. Weblinks von Otto Wilhelm Thomé (1885–1905) FloraWeb: Daten und Informationen zu Wildpflanzen und zur Vegetation Deutschlands Gesellschaft zur Erforschung der Flora Deutschlands e. V. Einzelnachweise Geobotanik
Q131449
648.381336
38827
https://de.wikipedia.org/wiki/Farbstoffe
Farbstoffe
Farbstoffe sind Farbmittel, die im Gegensatz zu Pigmenten in Anwendungsmedien wie Wasser oder anderen Lösungsmitteln löslich sind. Sie lassen sich nach verschiedenen Kriterien klassifizieren, beispielsweise nach ihrer Herkunft (Naturfarbstoffe / synthetische Farbstoffe), ihrer Verwendung (Substrat), ihrer chemischen Struktur (Chromophor) oder ihrem anwendungstechnischen Einsatzgebiet. Manche Farbstoffe lassen sich durch Zugabe von Fällungsmitteln in unlösliche Pigmente umwandeln, siehe Verlackung. Geschichte Über die Verwendung von Farbstoffen im Altertum gibt es wenige Kenntnisse, da sie relativ leicht durch die Einwirkung von Licht, Luft und Mikroorganismen zersetzt werden. Mittels moderner analytischer Methoden (beispielsweise bei der HPLC) lassen sich jedoch kleinste Spuren von Farbstoffen nachweisen. Es gelang den blauen, wasserlöslichen Farbstoff Indigotin auf über 3000 Jahre alten ägyptischen Textilien nachzuweisen. Die Kultivierung der Indigopflanze (Indigofera tinctoria) ist bereits 2500 v. Chr. in Ägypten nachweisbar und aus der Antike sind Aufzeichnungen zum Färbeprozess mit Indigo überliefert (Papyrus Leidensis, Papyrus Holmiensis). In Europa wurde dieser Farbstoff aus dem Färberwaid gewonnen. Dieser Zugang wurde im 17. Jahrhundert durch Einfuhr großer Mengen Indigo aus Ostindien unrentabel. Die Verwendung des echten Purpurs, gewonnen aus der an der Küste des östlichen Mittelmeeres vorkommenden Purpurschnecke, ist ebenfalls bereits in der Antike nachweisbar. Für Rotfärbungen wurde das sehr teure Purpur zum Teil durch den im Färberkrapp (Rubia tinctorum) enthaltenen Farbstoff Alizarin ersetzt, ein Farbmittel, das schon vor Christi Geburt bekannt war. Weitere seit alters her verwendete Farbstoffe natürlichen Ursprungs waren Henna, Kermes, Kurkuma und Safran. Mit der „Entdeckung“ Amerikas wurden natürliche Farbstoffe aus Hölzern (Blauholz, Rotholz, Gelbholz) in der Textil- und Lederfärberei, ferner für Haar- und Papierfärbung bedeutsam. Ebenso wurde die Verwendung von echtem Karmin, gewonnen aus Cochenilleschildläusen (Dactylopius coccus Costa), in Europa populär. Die Grundlage für die Entwicklung synthetischer organischer Farbstoffe wurde in der ersten Hälfte des 19. Jahrhunderts gelegt. Friedlieb Ferdinand Runge isolierte und charakterisierte 1834 aus Steinkohlenteer, der bei der Verkokung von Steinkohle als Nebenprodukt anfällt, unter anderem Anilin und Phenol. Der erste synthetische Farbstoff wurde 1832 durch Zufall vom deutschen Chemiker Karl von Reichenbach entdeckt und Pittakall genannt. Der Chemiker August Wilhelm von Hofmann beschäftigte sich ab 1843 mit der Chemie des Steinkohlenteers und entwickelte zahlreiche neue Umsetzungen und Verfahren. Hofmanns Schüler William Henry Perkin fand 1856 bei Oxidationsversuchen von Anilin das Mauvein. Dies war der erste synthetischen Farbstoff, der kommerziell hergestellt wurde. In den Folgejahren nahm die Chemie der Teerfarben, insbesondere durch die Arbeiten von Hofmann und seiner Schüler Perkin, Johann Peter Grieß, Carl Alexander von Martius (Gründer der Agfa) und Georg Merck (Gründer der Firma Merck & Co. in New York), eine stürmische Entwicklung: 1856: Erste Synthese des Triphenylmethan-Farbstoffs Fuchsin durch den polnischen Chemiker Jakub Natanson 1858: Entwicklung und Patentierung einer Herstellung von Fuchsin durch den französischen Chemiker François-Emmanuel Verguin. Nahezu zeitgleich entwickelte August Wilhelm Hofmann eine alternative Fuchsin-Synthese. 1861: Erfindung vom Kristallviolett durch Charles Lauth – ein Farbstoff aus der Gruppe der kationischen Farbstoffe, der sich für Druckfarben, Tinten und Durchschreibepapier eignet. 1862: Entwicklung der Diazotierungsreaktion als wichtiger Zwischenschritt zur Synthese von Azofarbstoffen durch Johann Peter Grieß. Die Azofarbstoffe entwickelten sich zur wichtigsten und größten Gruppe der synthetischen Farbstoffe. 1863: Erfindung von Bismarckbraun durch Martius – erster kommerziell hergestellter Azofarbstoff. 1869: Erste Synthese eines natürlichen Farbstoffs – Alizarin – durch den BASF-Chemiker Heinrich Caro in Zusammenarbeit mit Carl Graebe und Carl Liebermann. 1871: Entwicklung der Synthese des pH-Indikators Phenolphthalein aus Phthalsäureanhydrid und Resorcin durch Adolf von Baeyer. 1877: Synthese von Malachitgrün durch Otto Fischer. 1878: Erste Vollsynthese von Indigo durch Adolf von Baeyer. Ein alternatives Herstellungsverfahren wurde 1890 durch Karl Heumann entwickelt, das nach weiteren Verbesserungen zur industrielle Herstellung des Farbstoffs ab 1897 führte. Die kostengünstige industrielle Indigo-Produktion, die durch weitere Verfahrensoptimierungen – insbesondere durch den Chemiker Johannes Pfleger – erzielt wurde, führte in wenigen Jahren zu einer drastischen Verringerung des Marktanteils des natürlich gewonnenen Indigos. Wichtig für diese Entwicklung war die erfolgreiche großtechnische Herstellung und Vermarktung der neuen synthetischen Farbstoffe. So sicherte sich Perkin seine Erfindung durch ein Patent und gründete eine chemische Fabrik, in der bereits ab 1857 das Mauvein als Farbstoff zur Färbung von Seide und Baumwolle produziert wurde. In Deutschland wurden 1863 die spätere Hoechst AG (am 2. Januar 1863 als Theerfarbenfabrik Meister, Lucius & Co.) und Bayer AG (am 1. August 1863 als Friedr. Bayer et comp.) und zwei Jahre danach die BASF (am 6. April 1865 als Badische Anilin- und Sodafabrik) gegründet. Eine Weiterentwicklung der Farbstoffchemie im 20. Jahrhundert war die Einführung lichtechter Küpenfarbstoffe auf Anthrachinon-Basis. Der erste Vertreter war 1901 der bei der BASF entwickelte Farbstoff Indanthren-Blau, aus dem sich das umfangreiche Indanthren-Sortiment entwickelte. In den zwanziger Jahren wurde durch die Erfindung der Dispersionsfarbstoffe das Färben hydrophober Kunstfasern, wie Acetatseide oder später Polyesterfasern ermöglicht. Mit der Entwicklung der Phthalocyanine, insbesondere dem Kupferphthalocyanin, wurde ab 1935 durch die ICI ein neuer metallhaltiger Chromophor hergestellt, der zunächst als Pigment verwendet wurde. Durch die Einführung von löslichmachender Sulfonsäuregruppen konnte dieser Chromophor auch als Farbstoff verwendet werden. 1951 wurden die ersten Reaktivfarbstoffe für die Färbung von Wolle eingeführt und ab 1956 Reaktivfarbstoffe für die Baumwollfärberei. In den folgenden Jahrzehnten lag der Schwerpunkt der Textilfarbstoffentwicklung in der Verbesserung der anwendungstechnischen Eigenschaften. Beispielsweise durch die Entwicklung von bifunktionellen Reaktivfarbstoffen oder Reaktivfarbstoffen mit neuen Reaktivgruppen. Neben den textilen Anwendungen rückten im Laufe der Zeit die funktionellen Farbstoffe verstärkt in den Fokus. Dieser Begriff wurde 1993 für Farbstoffe geprägt, deren spezifische Anwendung nicht auf ihren ästhetischen Farbeigenschaften beruhen. Funktionelle Farbstoffe werden unter anderem in der Medizin, der Pharmazie, der Fotovoltaik, bei der Datenspeicherung oder in der Druckindustrie eingesetzt. Chemisch-physikalische Grundlagen Für den Menschen ist das Lichtspektrum im Wellenlängenbereich zwischen 380 und 790 nm sichtbar. Trifft weißes Licht auf einen Körper, wird das Lichtspektrum teilweise reflektiert und teilweise absorbiert. Werden beispielsweise kurzwellige Anteile der Lichtfarbe (Violett bis Blau, 420–480 nm) absorbiert, so enthält die remittierte Strahlung vorwiegend langwellige Anteile (bis 780 nm) und der Farbeindruck, die sogenannte Körperfarbe, ist Gelb bis Rot. Farbstoffe absorbieren und reflektieren ebenfalls einen Teil des sichtbaren weißen Lichts und es wird die Mischung aus den Komplementärfarben des absorbierten Lichts vom Auge wahrgenommen. Die Farbstoff-Eigenschaft einer chemischen Verbindung ergibt sich aus ihrer chemischen Struktur. Während Moleküle mit σ-Bindungen elektromagnetische Energie im Röntgen- und UV-Bereich absorbieren, werden Moleküle mit Elektronen in π-Bindungen (ungesättigte Bindungen) bereits durch elektromagnetische Strahlung mit geringerer Energie angeregt. Bei mehreren konjugierten ungesättigten Bindungen im Molekül sind die π-Elektronen delokalisiert und mit steigendem Grad der Konjugation verringert sich der energetische Abstand zwischen Grundzustand und angeregtem Energiezustand des Moleküls. Das Absorptionsmaximum verschiebt sich in Richtung längerer Wellenlängen und in den sichtbaren Bereich des Spektrums. (→Bathochromer Effekt) Derartige Molekülstrukturen werden nach der Farbstofftheorie von Otto Nikolaus Witt als Chromophore bezeichnet. Funktionelle Gruppen im Molekül, die als Elektronendonatoren oder als Elektronenakzeptoren wirken, beeinflussen die Mesomerie im Molekül, indem sie Elektronendichte der chromophoren Gruppe erhöhen oder verringern. Sie werden auch als Auxochrome oder Antiauxochrome bezeichnet. Auxochrome Gruppen sind beispielsweise die Hydroxy-, Ether-, Amino- und Amido-Gruppe, antiauxochrome Gruppen die Carbonyl-, Nitro-, Carboxyl- und Sulfo-Gruppe. Klassifizierung von Farbstoffen Die gängigste Einteilung der verschiedenen Farbstoffe erfolgt nach ihrer chemischen Struktur oder nach ihrem färbetechnischen Anwendungsverfahren. Klassifizierung nach chemischen Strukturen Anthrachinonfarbstoffe Die Grundstruktur dieser Farbstoffgruppe ist das Anthrachinon. Durch Variation der Substituenten lassen sich nahezu alle Farbtöne von Gelb über Rot und Blau bis Grün erzielen, wobei insbesondere die roten und blauen Anthrachinonfarbstoffe von Bedeutung sind. Durch Reduktion lässt sich das chinoide System in das entsprechende wasserlösliche Hydrochinon überführen, so dass sich die Anthrachinonfarbstoffe als Küpenfarbstoffe verwenden lassen. Mit geeigneten Substituenten sind Anthrachinonfarbstoffe als Dispersionsfarbstoffe zum Färben von Kunstfasern einsetzbar. Wasserlösliche Anthrachinonfarbstoffe mit Sulfonsäure-Gruppen finden Verwendung als Säure- oder Reaktivfarbstoffe. Azofarbstoffe Die Azofarbstoffe enthalten als Grundstruktur eine mit Aryl- oder Alkenylresten substituierte Azogruppe. Azofarbstoffe mit mehreren Azogruppen werden als Bisazo- (auch Disazo-), Trisazo-, Tetrakisazo-, Polyazo-Farbstoffe bezeichnet. Arylsubstituenten sind in aller Regel Benzol- oder Naphthalin-Derivate, aber auch heterocyclische Aromaten, wie Pyrazole oder Pyridone. Als Alkenylsubstituenten werden enolisierbare aliphatische Gruppen, beispielsweise substituierte Anilide der Acetessigsäure, verwendet. Die Farbstoffsynthese erfolgt durch Diazotierung aromatischer Amine und anschließender Azokupplung des Diazoniumsalzes auf elektronenreiche Aromaten oder β-Dicarbonyl-Verbindungen. Die Azofarbstoffe sind die mit Abstand wichtigste und umfangreichste Farbstoffgruppe und in fast allen anwendungstechnischen Farbstoffkategorien (→Klassifizierung nach anwendungstechnischen Verfahren) vertreten. Es sind keine natürlich vorkommenden Azofarbstoffe bekannt. Bis auf Türkis oder einem brillanten Grün lassen sich mit Azofarbstoffen nahezu alle Farbtöne erzielen. Die Azogruppe ist empfindlich gegen Reduktionsmittel – sie wird gespalten und der Farbstoff dadurch entfärbt. Einige Beispiele verschiedener Azofarbstoff-Typen (Mono- und Bisazofarbstoffe / Benzol-, Naphthalin-Reste / Pyridon-, Acetoacetanilid-Kupplungskomponente / Metallkomplex-Farbstoff): Dioxazinfarbstoffe Dioxazinfarbstoffe – auch als Triphendioxazinfarbstoffe bezeichnet – enthalten Triphendioxazin als Grundstruktur. Die farbstarken, brillanten Farbstoffe haben gute Echtheitseigenschaften und vereinigen somit die Vorteile der Azofarbstoffe und der Anthrachinonfarbstoffe. Kommerziell erhältlich sind Dioxazinfarbstoffe als Direkt- und Reaktivfarbstoffe. Indigoide Farbstoffe Die indigoiden Farbstoffe gehören zu den Carbonylfarbstoffen und werden als Küpenfarbstoffe eingesetzt. Der wichtigste Vertreter ist Indigo, der als natürlicher Farbstoff bereits in der Antike aus Pflanzen gewonnen wurde und der nach wie vor in großen Mengen industriell hergestellt und insbesondere für die Färbung von Blue Jeans verwendet wird. Ebenfalls ein Naturfarbstoff ist der antike Purpur (C.I. Natural Violet 1 / Dibromindigo). Metallkomplexfarbstoffe Metallkomplexfarbstoffe sind Koordinationsverbindungen eines Metallions mit einem oder mehreren Farbstoff-Liganden, die Elektronendonorgruppen aufweisen. Es überwiegen die Kupfer- und Chrom-Verbindungen, in geringerem Umfang werden aber auch Cobalt-, Nickel- und Eisen-Komplexe als Farbstoffe verwendet. Bei den Liganden handelt es sich häufig um Azofarbstoffe, Azomethinfarbstoffe, Formazane oder Phthalocyanine. Die Metallkomplexfarbstoffe zeichnen sich durch sehr gute Echtheitseigenschaften aus. Formazanfarbstoffe Die Formazanfarbstoffe sind strukturell mit den Azofarbstoffen verwandt. Die Grundstruktur ist das 1,3,5‑Triphenylformazan. Mit Übergangsmetallen, wie Kupfer, Nickel oder Kobalt bilden sie Chelatkomplexe. Abhängig von den weiteren Substituenten sind die nicht komplexierten Formazane orange bis tiefrot, die Metallkomplexformazane violett, blau bis grün. Die Synthese erfolgt durch Kupplung von Diazoniumsalzen auf Hydrazone. Kommerziell bedeutend sind blaue vierzähnige Kupferchelatkomplexe verschiedener Formazane, die insbesondere als Reaktivfarbstoffe für Baumwolle eingesetzt werden: Phthalocyaninfarbstoffe Die Phthalocyaninfarbstoffe sind Kupfer- oder Nickel-Metallkomplexe mit der Grundstruktur des Phthalocyanins. Sie sind strukturell verwandt mit den Porphyrinen, mit denen sie das Aza[18]annulen-Element gemeinsam haben. Durch Einführung von wasserlöslichen Substituenten – hauptsächlich über eine Sulfochlorierung – sind türkisfarbene bis brillantgrüne Farbstoffe zugänglich. Die Phthalocyaninfarbstoffe zeichnen sich durch eine ausgezeichnete Lichtechtheit aus. Methinfarbstoffe Die Methin- oder Polymethinfarbstoffe haben als chromophores System konjugierte Doppelbindungen, mit zwei Endgruppen, die als Elektronenakzeptor A und Elektronendonor D fungieren. Die Endgruppen, die in den meisten Fällen Stickstoff- oder Sauerstoffatome enthalten, können Teil eines Heterocyclus sein und die Doppelbindungen Teil eines aromatischen Systems. Sind eine oder mehrere Methingruppen durch Stickstoffatome ersetzt, spricht man von aza-analogen Methinfarbstoffen. Dadurch ergeben sich verschiedenen Unterklassen: Cyaninfarbstoffe, bei denen die konjugierten Doppelbindungen durch eine tertiäre Aminogruppe und eine quartäre Ammoniumgruppe flankiert sind. Sind zwei Methingruppen durch Stickstoffatome ersetzt und ist eine terminale Gruppe Teil eines Heterocyclus, während die zweite terminale Gruppe offenkettig ist, erhält man die wichtigen Diazahemicyaninfarbstoffe. Beispiel: C.I. Basic Red 22. Styrylfarbstoffe: durch das Einfügen eines Phenylrings in das Polyengerüst, haben diese ein Styrol-Strukturelement. Beispiel: C.I. Disperse Yellow 31. Triarylmethinfarbstoffe, in der älteren Literatur auch als Triarylmethanfarbstoffe bezeichnet, da sie sich vom Triphenylmethan ableiten, bei dem mindestens zwei der aromatischen Ringe elektronenliefernde Substituenten aufweisen. Beispiel: C.I. Basic Green 4 (Malachitgrün). Nitro- und Nitrosofarbstoffe Bei den Nitrofarbstoffen befindet sich eine Nitrogruppe an einem aromatischen Ring in ortho-Position zu einem Elektronendonator – entweder einer Hydroxy- (–OH) oder einer Aminogruppe (–NH2). Der älteste Vertreter dieser Farbstoffklasse ist die Pikrinsäure (2,4,6-Trinitrophenol). Die Hydroxynitrofarbstoffe haben jedoch keine kommerzielle Bedeutung mehr. Es handelt sich um eine relativ kleine aber alte Farbstoffklasse, deren Vertreter sich durch eine hohe Lichtechtheit und ihre einfache Herstellung auszeichnen. Die Nitrofarbstoffe haben einen gelben bis braunen Farbton. Da es relativ kleine Moleküle sind, ist ein wichtiges Einsatzgebiet als Dispersionsfarbstoffe die Färbung von Polyesterfasern. Sie werden auch als Säure- und Pigmentfarbstoff verwendet. Die seltenen Nitrosofarbstoffe sind aromatische Verbindungen mit einer Nitrosogruppe. Nitrosofarbstoffe mit einer Hydroxygruppe in ortho-Position zur Nitrosogruppe werden ausschließlich als Metallkomplexe eingesetzt. Ein typischer Vertreter ist Naphtol Grün B (C.I. Acid Green 1). Schwefelfarbstoffe Schwefelfarbstoffe (Sulfinfarbstoffe) sind wasserunlösliche, makromolekulare Farbstoffe, die Disulfid- oder Oligosulfidbindungen zwischen aromatischen Resten aufweisen. Sie werden durch Schmelzen von Benzol-, Naphthalin- oder Anthrazenderivaten mit Schwefel oder Natriumpolysulfiden gewonnen und sind von uneinheitlicher Konstitution. Sie eignen sich insbesondere zum Färben von Baumwolle und werden dabei wie die Küpenfarbstoffe mit Natronlauge und Dithioniten oder Natriumsulfid in die wasserlösliche Form reduziert (Leukoverbindung) und nach Aufziehen auf die Faser durch Oxidation auf dieser unlöslich fixiert. Aus toxikologischen und ökologischen Gründen verzichtet man inzwischen weitestgehend auf die Oxidation mit Dichromat und verwendet verstärkt Sulfid-arme Schwefelfarbstoffe und Sulfid-freie Reduktionsmittel. Aufgrund der niedrigen Herstellkosten spielen die Schwefelfarbstoffe nach wie vor mengenmäßig eine bedeutende Rolle. Schwefelfarbstoffe sind besonders wasch- und lichtecht, die Farbtöne sind meist gedeckt. Klassifizierung nach anwendungstechnischen Verfahren Während die Farbnuance eines Farbstoffs im Wesentlichen durch den Chromophor bestimmt wird, lassen sich durch Einbau von geeigneten chemischen Gruppen die Eigenschaften der Farbstoffe so variieren, dass unterschiedliche Substrat-Typen gefärbt werden können. Daraus ergibt sich eine Klassifizierung der unterschiedlichen Farbstoffe nach dem färbetechnischen Verfahren. Dieser Einteilung folgt auch der Colour Index, ein wichtiges Standardwerk auf dem Gebiet der Farbstoffchemie. Aus dem Colour-Index (C.I.) erkennt der Färber, um welche Farbstoffklasse, welche Farbe und welche Substanz es sich handelt. Im C.I. sind mehr als 10.000 Farbstoffe enthalten – mehr als 50 % davon sind Azofarbstoffe. Beizenfarbstoffe Der Name leitet sich vom Färbeverfahren ab, bei dem geeignete Säurefarbstoffe auf das gebeizte Färbegut – vorwiegend Wolle und Seide – aufgebracht werden. Um mit Beizenfarbstoffen zu färben, werden die zu färbenden Fasern zunächst mit Chrom(III)-, Eisen(III)- oder Aluminiumsalzen behandelt, gebeizt. Beim anschließenden Behandeln mit Wasserdampf bilden sich auf der Faser Metallhydroxide. Diese Hydroxide reagieren beim Einfärben mit dem (meist speziellen) Säurefarbstoff zu einem Metallkomplexfarbstoff. Der Vorgang an der Faser entspricht einer Verlackung. Werden Chromsalze verwendet, spricht man von Chromierungsfarbstoffen. Abhängig von dem Beizenfarbstofftyp kann das Chromsalz – in aller Regel Chromate oder Dichromate – vor, während oder nach dem Färben zugeführt werden. Entsprechend unterscheidet man Vor-, Nach- und Einbad-Chromierverfahren. Die Chromierungsfarbstoffe zeichnen sich insbesondere durch eine sehr gute Nassechheit aus. Nachteilig und ökologisch kritisch ist jedoch die Schwermetallbelastung der Fasern und der Färbereiabwässer. Die Beizenfarbstoffe werden nach dem Colour Index als C.I. Mordant Dyes bezeichnet. Beispiele: Historisch wurden neben Chrom-, Eisen- und Aluminiumsalzen auch Beizen auf Basis von Ammoniumvanadat, Gerbsäure, Tonerde, Antimon, Barium, Blei, Cobalt, Kupfer, Mangan, Nickel, Zinn sowie Türkischrotöl eingesetzt. Zur Fixierung wurden verschiedene Antimonsalze wie beispielsweise Brechweinstein oder Antimon(III)-chlorid, sowie Natriumsilicate und Natriumphosphat, aber auch Kuhkot verwendet. Direktfarbstoffe Direktfarbstoffe (oder Substantive Farbstoffe) ziehen aufgrund ihrer hohen Substantivität direkt aus wässriger Lösung auf die Faser auf. Sie sind besonders für die Anwendung auf Cellulose geeignet. Diese Farbstoffe werden durch physikalische Wechselwirkungen (Van-der-Waals-Bindungen) an die Faser gebunden. Die meisten Vertreter kommen aus der Gruppe der Azofarbstoffe, vorzugsweise handelt es sich um Polyazofarbstoffe. Die Direktfarbstoffe werden nach dem Colour Index als C.I. Direct Dyes bezeichnet. Beispiele: Dispersionsfarbstoffe Die nahezu wasserunlöslichen Dispersionsfarbstoffe werden vorzugsweise zum Färben von hydrophoben Polyester- und Acetatfasern eingesetzt. Sie werden zusammen mit Dispergiermitteln sehr fein zermahlen, dadurch können beim Färbeprozess die molekular gelösten Farbstoffanteile in die Faser diffundieren, bilden dort eine feste Lösung, so dass wasch- und lichtechte Färbungen resultieren. Die überwiegende Anzahl der Dispersionsfarbstoffen gehören zu den Azofarbstoffen. Dispersionsfarbstoffe sind besonders durch die mechanisch hochwertigen Polyesterfasern eine sehr wichtige Farbstoffgruppe. Die gesamte gehandelte Menge hatte im Jahr 1999 für Westeuropa einen Verkaufswert von 98 Millionen Euro. Die Dispersionsfarbstoffe werden nach dem Colour Index als C.I. Disperse Dyes bezeichnet. Beispiele: Entwicklungs- oder Kupplungsfarbstoffe Bei den Entwicklungsfarbstoffen wird ein praktisch wasserunlöslicher Farbstoff direkt auf der Faser durch Reaktion einer wasserlöslichen Kupplungskomponente (C.I. Azoic Coupling Component) mit einer wasserlöslichen Diazokomponente (C.I. Azoic Diazo Component) gebildet. Mit dieser Farbstoffklasse werden hauptsächlich Cellulosefasern gefärbt, wobei sich die Färbungen durch eine sehr gute Nassechtheit auszeichnen. Die wichtigste Kupplungskomponente bei den Entwicklungsfarbstoffen ist die C.I. Coupling Component 2 (Naphthol AS). Kationische Farbstoffe Kationische Farbstoffe sind positiv geladene Verbindungen, die im Wesentlichen mit Polyacrylnitril-Fasern (PAN) und anionisch modifiziertem Polyester brillante und lichtechte Färbungen ergeben. Sie gehen mit negativ geladenen Gruppen der Faser ionische Bindungen ein. Für kationische Farbstoffe können verschiedene Chromophore verwendet werden, wobei die positive Ladung bei den Methinfarbstoffen im Gegensatz zu anderen chromophoren Systemen delokalisiert ist. Auch wenn die kationischen Farbstoffe nach dem Colour Index mit C.I. Basic Dyes benannt werden, ist die Bezeichnung basische Farbstoffe für diese Farbstoffgruppe in der neueren Literatur nicht mehr gebräuchlich. Küpenfarbstoffe Zu den Küpenfarbstoffen zählen wasserunlösliche Pigmente, die durch Reduktion (Verküpung) in alkalischer Lösung zum Färben in ihre lösliche Dihydro- oder Leukoform gebracht werden. Das Anion zeigt eine ausreichende Affinität zur Baumwoll- oder Viskosefaser, so dass der Küpenfarbstoff aufziehen kann. Hier wird er durch anschließende Oxidation wieder in den unlöslichen Zustand überführt. Dies kann entweder durch Luftsauerstoff oder Behandlung durch Oxidationsmittel erfolgen. Der Farbstoff wird quasi molekular an der Faser fixiert, dieses „Ausfällen in der Faser“ bewirkt die hohe Wasch- und Lichtechtheit. Die wasserunlöslichen Schwefelfarbstoffe verhalten sich ebenfalls wie die Küpenfarbstoffe. Der wichtigste Küpenfarbstoff ist Indigo. Ebenfalls von Bedeutung sind die Indanthren-Farbstoffe. Die Küpenfarbstoffe werden nach dem Colour Index als C.I. Vat Dyes bezeichnet. Beispiele: Lebensmittelfarbstoffe Die Lebensmittelfarbstoffe werden als Lebensmittelzusatzstoffe verwendet, um verarbeitungsbedingte Farbveränderungen ausgleichen bzw. die Farberwartungen der Verbraucher zu befriedigen. Es werden sowohl Farbstoffen natürlichen Ursprungs, als auch synthetisch hergestellte Farbstoffe eingesetzt. Die Verwendung von Farbstoffen als Lebensmittelfarbstoffe ist gesetzlich streng geregelt – in der EU durch die Verordnung (EG) Nr. 1333/2008 vom 16. Dezember 2008 über Lebensmittelzusatzstoffe. Es dürfen nur zugelassene, mit einer E-Nummer versehene Lebensmittelzusatzstoffe in Verkehr gebracht werden. Diese Zusatzstoffe müssen auf dem Produkt kenntlich gemacht werden. Die Lebensmittelfarbstoffe werden nach dem Colour Index als C.I. Food Dyes bezeichnet. Lösungsmittelfarbstoffe Die Lösungsmittelfarbstoffe, Bezeichnung laut Colour Index Solvent Dyes, sind wasserunlösliche Farbstoffe, die in verschiedenen organischen Lösungsmitteln wie Alkoholen, Estern oder Kohlenwasserstoffen löslich sind. In der Regel enthalten die Strukturen der Lösungsmittelfarbstoffe keine Sulfonsäure- oder Carboxygruppen. Ausgenommen sind kationische Farbstoffe, mit einer intramolekularen Sulfonat- oder Carboxylatgruppe als Gegenanion. Vertreter der Lösungsmittelfarbstoffe findet man in verschiedenen chemischen Farbstoffklassen, von den Azofarbstoffen, über Anthrachinonfarbstoffen, Metallkomplexfarbstoffen bis zu den Phthalocyaninen. Lösungsmittelfarbstoffe finden Anwendung als Bestandteil von Lacken (Beispiel: Farbstoffe für Zaponlacke), zum Einfärben von Mineralölprodukten (Sudanfarbstoffe), Wachs, Tinten und verschiedenen transparenten Kunststoffen. Die Lösungsmittelfarbstoffe werden nach dem Colour Index als C.I. Solvent Dyes bezeichnet. Beispiele: Reaktivfarbstoffe Reaktivfarbstoffe bilden beim Färbeprozess mit den funktionellen Gruppen der Faser eine kovalente Bindung, wodurch sich nassechte Färbungen ergeben. Sie sind die größte Farbstoffgruppe zum Färben von Cellulose, können aber auch zum Färben von Wolle und Polyamid in tiefen Nuancen eingesetzt werden. Chemisch gesehen bestehen die Reaktivfarbstoffe aus zwei Teilen – einem Chromophor und einer oder mehrerer Reaktivgruppen, auch als Reaktivanker bezeichnet. Von Bedeutung sind zwei verschiedene Reaktivankersysteme: Heterocyclische Verbindungen, beispielsweise Halogen-substituierte Triazin- oder Pyrimidin-Derivate. Beim Färbeprozess reagieren diese mit den Hydroxygruppen der Fasern unter Abspaltung von Halogenwasserstoff und Bildung einer stabilen kovalenten Etherbindung: Die sogenannte Vinylsulfon-Gruppe, die während des Färbeprozesses mit den nukleophilen Gruppen der Faser im Sinne einer Michael-Addition reagiert. Auch in diesem Fall entsteht eine stabile Etherbindung. Bei vielen Vinylsulfonfarbstoffen liegt die Vinylsulfongruppe in geschützter Form als Schwefelsäurehalbester vor. Erst unter den alkalischen Färbebedingungen wird die Vinylsulfongruppe durch Eliminierung von Schwefelsäure gebildet. Die beiden Reaktivanker-Typen können auch parallel in einem Reaktivfarbstoff vorliegen. Als Chromophor sind mit Abstand die Azofarbstoffe am häufigsten bei den Reaktivfarbstoffen vertreten. Jedoch spielen auch andere chromophore Systeme, wie Anthrachinon-, Formazan- und Phthalocyaninfarbstoffe eine wichtige Rolle. Die Reaktivfarbstoffe werden nach dem Colour Index als C.I. Reactive Dyes bezeichnet. Beispiele: Säurefarbstoffe Säurefarbstoffe besitzen hydrophile, anionische Substituenten – in aller Regel sind dies Sulfosäuregruppen. Die meisten Vertreter dieser Farbstoffklasse gehören zu den Azofarbstoffen, jedoch gibt es auch Säurefarbstoffe mit anderen Chromophoren. Sie werden hauptsächlich zum Färben von Wolle, Seide und Polyamid verwendet, wobei der Färbeprozess im pH-Bereich 2–6 erfolgt. Bei Verwendung kleiner Farbstoffmoleküle erhält man gleichmäßige Färbungen bei denen die Farbstoffmoleküle hauptsächlich salzartige Bindungen mit den Ammoniumgruppen der Faser bilden. Das Auswaschverhalten (Nassechtheit) ist bei diesen Produkten eher mäßig. Mit zunehmender Molekülgröße nimmt die Bindung des Farbstoffs durch Adsorptionskräfte zwischen dem hydrophoben Teil des Farbstoffmoleküls und der Faser zu. Dadurch verbessert sich die Nassechtheit, jedoch in vielen Fällen auf Kosten der Gleichmäßigkeit (Egalität) der Färbung. Die Säurefarbstoffe werden nach dem Colour Index als C.I. Acid Dyes bezeichnet. Beispiele: Funktionelle Farbstoffe Während konventionelle Farbstoffe etwa zur optischen Veränderung von Textilien, Leder und Papier eingesetzt werden, dienen funktionelle Farbstoffe in der Regel keinem ästhetischen Zweck. Typische Einsatzgebiete sind Indikatorfarbstoffe oder spannungsabhängige Farbstoffe Spezielle Farbstoffe können Licht bei einer bestimmten Wellenlänge absorbieren und das absorbierte Licht in Wärme umwandeln (etwa in der chemischen und biochemischen Analytik), das Licht bei einer anderen Wellenlänge wieder emittieren (als phosphoreszierende Biomarker oder Tinten, Fluoreszenz bei Farbstofflasern, Chemilumineszenz zum Brechen oder Neuknüpfung von chemischen Bindungen in der Biochemie), die Polarisationsrichtung des Lichts verändern (wie bei der Frequenzverdoppelung oder als optische Schalter), elektrische Phänomene bewirken (in der Anwendung bei Laserdruckern), fotochemische Prozesse ermöglichen. Ökonomisch ist der Einsatz von funktionellen Farbstoffen für die Herstellung von CDs, DVDs besonders wichtig. Die Farbstoffmoleküle sind im Polycarbonat einer CD oder DVD enthalten. Durch den Laserstrahl des Brenners nehmen Farbstoffmoleküle Lichtenergie auf und setzen diese in Wärme um. Durch die Wärmeaufnahme schmilzt der Kunststoff, das Polycarbonat, an dieser Stelle. Die Oberfläche hat sich leicht verändert, die veränderte Oberflächenstruktur wird beim Leseprozess wahrgenommen. Industrielle Farbstoffproduktion Die industrielle Farbstoffproduktion umfasst neben den chemischen Umsetzungen verschiedene physikalische Arbeitsgänge, beispielsweise das Aussalzen, die Filtration, die Reversosmose (RO), die Trocknung und die Mahlung. Vor oder nach der Trocknung werden die Handelsfarbstoffe durch Zugabe farbloser, indifferenter Stellmittel wie Natriumsulfat, Natriumchlorid oder Dextrin auf eine bestimmte Farbstärke standardisiert, um die Schwankungen verschiedener Fabrikationspartien auszugleichen. Durch gezielten Zusatz anderer Farbstoffe (Nuancierfarbstoffe) kann die Farbtonkonstanz des Handelsprodukts gewährleistet werden. Die Lagerstabilität der Produkte lässt sich in manchen Fallen durch Zusatz von Puffersubstanzen wie Mono- und Dinatriumphosphat erhöhen. Insbesondere bei schlecht wasserlöslichen Farbstoffen hat das Mahlen großen Einfluss auf den Färbungsprozess (Farbton, Farbstärke). In den 1960er und 1970er Jahren wurden neben den Farbstoffpulvern zunehmend konzentrierte wässrigen Farbstofflösungen vermarktet. Durch die Einführung der Flüssigmarken, wie der Entwicklung von Farbstofgranulaten wurde die automatische Farbstoffdosierung in den Färbereien erleichtert und die Staubbelastung verringert. Vor 1980 war die industrielle Farbstoffproduktion sehr stark in Westeuropa, Nordamerika und Japan vertreten. Gestiegenen Umweltschutzkosten und der zunehmende Importdruck aus Asien durch viele nicht-traditionelle Farbstoffhersteller, insbesondere aus China, Indien, Korea und Thailand, führten zu erheblichen Umstrukturierungen bei den traditionellen Farbstoffherstellern. Es kam zu einer Konzentration des Farbstoffgeschäfts durch Übernahmen und Joint Ventures, infolge derer viele Produktionsanlagen geschlossen wurden. Große traditionelle Farbstoffhersteller sind Huntsman (ehemals Ciba), DyStar (hervorgegangen aus den Farbstoffbereichen der Hoechst AG, Bayer AG und BASF) und Archroma (hervorgegangen aus Clariant). Diese traditionellen Farbstoffhersteller produzieren mittlerweile weitestgehend in Asien. Siehe auch Liste der Farbstoffe, nach Farbe sortiert Färberei in der Antike Literatur Weblinks Lexikon der Färbepflanzen auf digitalefolien.de, abgerufen am 7. Januar 2017. (PDF; 2,16 MB) Einzelnachweise Drucktechnik-Verbrauchsmaterial Buntpapier Wikipedia:Artikel mit Video
Q189720
108.107225