ACL-OCL / Base_JSON /prefixK /json /konvens /2021.konvens-1.6.json
Benjamin Aw
Add updated pkl file v3
6fa4bc9
{
"paper_id": "2021",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T07:11:45.898188Z"
},
"title": "Identifikation von Vorkommensformen der Lemmata in Quellenzitaten fr\u00fchneuhochdeutscher Lexikoneintr\u00e4ge",
"authors": [
{
"first": "Stefanie",
"middle": [],
"last": "Dipper",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "Universit\u00e4t Bochum",
"location": {}
},
"email": "[email protected]"
},
{
"first": "Jan",
"middle": [
"Christian"
],
"last": "Schaffert",
"suffix": "",
"affiliation": {},
"email": "[email protected]"
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "In dieser Arbeit werden zwei Ans\u00e4tze vorgestellt, die die Quellenzitate innerhalb eines W\u00f6rterbucheintrags im Fr\u00fchneuhochdeutschen W\u00f6rterbuch analysieren und darin die Vorkommensform identifizieren, d. h. die Wortform, die dem Lemma dieses Eintrags entspricht und als historische Schreibform in verschiedenen Schreibvarianten vorliegt. Die Evaluation zeigt, dass schon auf Basis kleiner Trainingsdaten brauchbare Ergebnisse erzielt werden k\u00f6nnen.",
"pdf_parse": {
"paper_id": "2021",
"_pdf_hash": "",
"abstract": [
{
"text": "In dieser Arbeit werden zwei Ans\u00e4tze vorgestellt, die die Quellenzitate innerhalb eines W\u00f6rterbucheintrags im Fr\u00fchneuhochdeutschen W\u00f6rterbuch analysieren und darin die Vorkommensform identifizieren, d. h. die Wortform, die dem Lemma dieses Eintrags entspricht und als historische Schreibform in verschiedenen Schreibvarianten vorliegt. Die Evaluation zeigt, dass schon auf Basis kleiner Trainingsdaten brauchbare Ergebnisse erzielt werden k\u00f6nnen.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "W\u00f6rterb\u00fccher erschlie\u00dfen Sprachen, deren Dialekte, Sprachstufen und Fachwortsch\u00e4tze\u00fcber die strukturierte Pr\u00e4sentation sprachbezogener Informationen. Die Ausdifferenzierung kann dabei sehr unterschiedlich sein und zeigt sich schon in den Namen der W\u00f6rterb\u00fccher (Deutsches Rechtsw\u00f6rterbuch, W\u00f6rterbuch der schweizerdeutschen Sprache, W\u00f6rterbuch der deutschen Pflanzennamen). Eine besondere Position nehmen die allgemeinen W\u00f6rterb\u00fccher ein, die den Gesamtwortschatz einer Sprache diachron oder synchron erfassen. Wird eine historische Sprachstufe bearbeitet, kommt den Werken zudem eine kulturp\u00e4dagogische Funktion zu, da sie die diachronen Unterschiede zu der jeweiligen Standardsprache herausarbeiten m\u00fcssen, um entsprechende sprachbezogene Informationen ad\u00e4quat zu vermitteln (Reichmann, 1986) .",
"cite_spans": [
{
"start": 777,
"end": 794,
"text": "(Reichmann, 1986)",
"ref_id": "BIBREF11"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Einleitung",
"sec_num": "1"
},
{
"text": "Nat\u00fcrlich wurden w\u00e4hrend des Digital Turns neben den historischen Quellen auch die W\u00f6rterb\u00fccher digitalisiert, sodass deren Informationsangebot nun\u00fcberall abrufbar, durchsuchbar und vielf\u00e4ltig auswertbar ist. Eine Verkn\u00fcpfung der Quellen mit den W\u00f6rterb\u00fcchern fand jedoch nicht statt. Die historischen Quellen bieten daher aktuell nur rudiment\u00e4re M\u00f6glichkeiten der Nachnutzbarkeit (Klaffki et al., 2018) . So mangelt es ihnen an jener semantischen Erschlie\u00dfungstiefe, die\u00fcber ein passendes W\u00f6rterbuch erreicht werden k\u00f6nnte und ma\u00dfgeblich zum Verst\u00e4ndnis beitragen w\u00fcrde.",
"cite_spans": [
{
"start": 381,
"end": 403,
"text": "(Klaffki et al., 2018)",
"ref_id": "BIBREF4"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Einleitung",
"sec_num": "1"
},
{
"text": "Im nachfolgenden Beitrag stellen wir auf Basis des Fr\u00fchneuhochdeutschen W\u00f6rterbuches (im Folgenden FWB) zwei Ans\u00e4tze vor, die dies m\u00f6glich machen sollen, indem sie durch die Lemmatisierung fr\u00fchneuhochdeutscher W\u00f6rter die Basis einer Semantisierung schaffen.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Einleitung",
"sec_num": "1"
},
{
"text": "Der eine Ansatz wendet ein existierendes System zur Normalisierung historischer Schreibungen an, der andere nutzt ein k\u00fcnstliches neuronales Netzwerk. 1 Ausgangspunkt ist die Identifikation der Lemmata und deren Wortbildungen in den Quellenzitaten des FWBs. Langfristiges Ziel ist die m\u00f6glichst umfassende automatische Lemmatisierung digitaler fr\u00fchneuhochdeutscher Texte.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Einleitung",
"sec_num": "1"
},
{
"text": "Der Artikel ist wie folgt aufgebaut: Zun\u00e4chst stellen wir die Daten des FWBs vor (Kap. 2). Kap. 3 erkl\u00e4rt, wie unser genereller Ansatz aussieht. In Kap. 4 und 5 beschreiben wir die beiden Systeme zur Identifikation der Vorkommensform. Kap. 6 enth\u00e4lt die Resultate, gefolgt von einem Ausblick in Kap. 7.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Einleitung",
"sec_num": "1"
},
{
"text": "Das FWB ist ein semantisches Bedeutungsw\u00f6rterbuch mit kulturwissenschaftlichem Schwerpunkt, dessen Ziel es ist, den Gesamtwortschatz des Fr\u00fchneuhochdeutschen synchron in seiner Heterogenit\u00e4t zu pr\u00e4sentieren (Reichmann, 1986) . Um dessen Variet\u00e4tenspektrum bestm\u00f6glich zu erfassen, bildet das FWB die drei wichtigsten fr\u00fchneuhochdeutschen Heterogenit\u00e4tsdimensionen Zeit (1350 bis 1650), Raum (Th\u00fcringisch, Els\u00e4ssisch, Alemannisch, etc.) und Textsorte (erbauliche, literarische, rechtsgeschichtliche, etc. Texte) m\u00f6glichst ungewichtet in seinen Quellen und sprachbezogenen Informationen ab. Pro Lemma, bei polysemen Lemmata pro Einzelsemantik, bietet das FWB eine Vielzahl qualitativ hochwertiger, heuristisch kompetent\u00fcberpr\u00fcfter, semantischer und pragmatischer Informationen und belegt diese mit Zitaten. Da das Fr\u00fchneuhochdeutsche weder eine normativ geregelte Orthographie noch eine\u00fcberdachende Leitvariet\u00e4t aufweist, belegt das FWB pro Lemma zudem eine z. T. erhebliche Anzahl von Vorkommensformen (kurz: VKF) pro Lemma. Da diese seit 2017 manuell ausgezeichnet werden, ergibt sich ein unsch\u00e4tzbares Potenzial: Aktuell werden 13.178 VKF eindeutig 4.674 Lemmata zugeordnet. Dieses Verh\u00e4ltnis deutet die Problematiken der Lemmatisierungsans\u00e4tze jener VKF an, die nicht ausgezeichnet sind.",
"cite_spans": [
{
"start": 207,
"end": 224,
"text": "(Reichmann, 1986)",
"ref_id": "BIBREF11"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Das Fr\u00fchneuhochdeutsche W\u00f6rterbuch (FWB)",
"sec_num": "2"
},
{
"text": "Exemplarisch ist das Lemma abenteuer, das in den Quellenzitaten u. a. in folgenden VKF belegt ist: aventevre, auffent\u00fcr, abente\u00fcr, avent\u00fare, abentewr, abentur, ofent\u00fare, obentewer, aubent\u00far, aubenteur, usw. (s. Abbildung 8 im Appendix mit einem Ausschnitt des FWB-Eintrags zu diesem Lemma). Wie kann in allen diesen Vorkommensformen (insgesamt 36 unterscheidbare) automatisch und m\u00f6glichst eindeutig das Lemma erkannt werden?",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Das Fr\u00fchneuhochdeutsche W\u00f6rterbuch (FWB)",
"sec_num": "2"
},
{
"text": "Die in diesem Beitrag genutzten Daten des FWB stehen online z. T. frei zur Verf\u00fcgung oder werden in den kommenden Jahren freigeschaltet. 2",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Das Fr\u00fchneuhochdeutsche W\u00f6rterbuch (FWB)",
"sec_num": "2"
},
{
"text": "In diesem Beitrag soll es also noch nicht um die Lemmatisierung beliebiger Texte des Fr\u00fchneuhochdeutschen gehen, sondern zun\u00e4chst um eine einfachere Aufgabe: Gegeben ein Lemma wie abenteuer, identifiziere die zugeh\u00f6rige Vorkommensform (VKF) innerhalb der Quellenzitate. (1) zeigt ein Beispiel f\u00fcr ein Quellenzitat f\u00fcr dieses Lemma aus einem nordoberdeutschen Text. Das Lemma ist in standardisierter Form vorgegeben, w\u00e4hrend die VKF eine flektierte Wortform sein kann, die zudem in der historischen Originalschreibung vorliegt. Ziel ist es also, in (1) die VKF obentewern zu identifizieren.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "2 https://fwb-online.de/ (letzter Zugriff: 5.5.2021) (1) das die frembden in [. . . ] wirtshewser geen mit iren obentewern.",
"cite_spans": [
{
"start": 77,
"end": 85,
"text": "[. . . ]",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "Wir fassen die Aufgabe als Lemmatisierungsaufgabe auf: Gegeben ein Kandidat f\u00fcr eine VKF, l\u00e4sst sich dieser Kandidat auf das vorgegebene Lemma lemmatisieren? Dabei gehen beide Ans\u00e4tze so vor, dass sie s\u00e4mtliche historischen Worterformen w i innerhalb eines Belegs mit dem vorgegebenen Lemma l paaren: < w i , l > und f\u00fcr jedes Paar\u00fcberpr\u00fcfen, ob l das Lemma von w i sein k\u00f6nnte. Im Beispiel (1) w\u00e4ren das also die Paare <das, abenteuer>, <die, abenteuer>, <frembden, abenteuer> etc.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "Ein m\u00f6glicher Ansatz w\u00e4re es, f\u00fcr diese Aufgabe einen vorhandenen Lemmatisierer zu nutzen. Das ist allerdings aus verschiedenen Gr\u00fcnden nicht ohne Weiteres m\u00f6glich:",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "Viele der Ziel-Lemmata aus dem FWB haben keine moderne Entsprechung, z. B. lauten die ersten zehn Lemmata einer Zufallsauswahl s\u00fcnde, *quatembergeld, *entspanen, erzeigen, *erbholde, *abtilgen, abschlagen, *\u00e4fern, streuen, abtun 3 -f\u00fcr f\u00fcnf davon (mit Stern markiert) gibt es keinen Eintrag in einem Standardw\u00f6rterbuch wie dem Duden 4 . Damit lassen sich moderne Lemmatisierer nicht ohne Weiteres sinnvoll auf diese Daten anwenden, da die Zahl der ungesehenen Lemmata ungew\u00f6hnlich hoch ist. Auch lassen sich vorhandene Korpora wie z. B. das Anselm-Korpus 5 , das RIDGES-Korpus 6 oder das Referenz-Korpus Fr\u00fchneuhochdeutsch 7 nicht als Trainingsdaten verwenden, da diese moderne Lemmata verwenden.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "Au\u00dferdem basieren viele moderne Lemmatisierer auf Wortart-Information (und integrieren gegebenenfalls einen entsprechenden Tagger), so z. B. Liebeck and Conrad (2015) ; Konrad (2019). F\u00fcr unsere Daten liegen aber keine entsprechenden Wortart-Annotationen vor.",
"cite_spans": [
{
"start": 141,
"end": 166,
"text": "Liebeck and Conrad (2015)",
"ref_id": "BIBREF6"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "Ein weiteres Problem ist, dass die VKF-Kandidaten nicht in einer standardisierten Form vorliegen, sondern stark variieren k\u00f6nnen. Daher l\u00e4sst sich beispielsweise der Ansatz von Wartena (2019) nicht umsetzen, der von markierten Morphemgrenzen innerhalb der Trainingsdaten ausgeht.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "Schlie\u00dflich liegen in unserem Szenario nur wenig RuleBased und WLD ben\u00f6tigen au\u00dferdem ein Lexikon mit normalisierten Schreibungen, gegen 8 https://github.com/comphist/norma (letzter Zugriff: 5.5.2021)",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "9 Norma markiert nur bei der Komponente RuleBased die Wortgrenzen explizit (mit \"#\"). Die Wortgrenzen stellen eine wichtige Information f\u00fcr die Lemmatisierung dar: Am Wortende m\u00fcssen andere Ersetzungen gelernt werden als in der Wortmitte. Daher f\u00fcgen wir \"#\" f\u00fcr WLD am Wortanfang und -ende an. das die generierten Kandidaten abgeglichen werden. Bei der Normalisierung wendet Norma die drei Komponenten der Reihe nach an. Sobald eine Komponente eine normalisierte Form generiert, wird abgebrochen. Norma generiert allerdings nur Kandidaten, die sich nicht mehr als eine gewisse Distanz vom Ausgangswort unterscheiden. Gibt es keinen solchen Kandidaten, bleibt der Output leer.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "Norma wurde f\u00fcr die Normalisierung flektierter Wortformen entwickelt. In einer ersten Evaluation testeten wir daher, ob sich Norma prinzipiell auch f\u00fcr die Lemmatisierung eignet. Eine Crossvalidierung ergab Durchschnittswerte zwischen 56,8-69,8% Genauigkeit pro Teilkorpus, was Norma f\u00fcr die (wesentlich leichtere) Aufgabe der VKF-Identifikation als m\u00f6gliches Tool erscheinen l\u00e4sst. (Details zu dieser Evaluation im Appendix.)",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation von Vorkommensformen durch Lemmatisierung",
"sec_num": "3"
},
{
"text": "F\u00fcr die VKF-Identifikation lemmatisiert Norma zun\u00e4chst jeden VKF-Kandidaten aus einem Beleg. Anschlie\u00dfend werden die generierten Lemmata mit dem vorgegebenen Lemma abgeglichen und die VKF wird ausgew\u00e4hlt, deren Lemma mit dem vorgegebenen\u00fcbereinstimmt. Gegebenenfalls kann auch kein oder mehrere Kandidaten zum vorgegebenen Lemma lemmatisiert werden.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "F\u00fcr diese Anwendung trainieren wir Norma auf Paaren der Form <historische Wortform, FWB-Lemma>. 10 Entsprechend besteht das Lexikon zum Abgleich aus Lemmata. Wir nutzen zwei unterschiedliche Lexika f\u00fcr den Abgleich:",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "1. Norma-full: das Lexikon besteht aus einer Liste von rund 78.000 Lemmata des FWB (\"full lexicon\") 2. Norma-small: das Lexikon besteht nur aus dem vorgegebenen Lemma (\"small lexicon\")",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "Das Szenario Norma-full entspricht dem\u00fcblichen Vorgehen und k\u00f6nnte beispielsweise bei der Lemmatisierung von Freitext (ohne vorgegebenes Lemma) Anwendung finden. Das Szenario Normasmall ist auf die aktuelle Aufgabenstellung zugeschnitten: Da das Ziel-Lemma schon bekannt ist, kann Normas Hypothesenraum extrem auf genau diese Form eingeschr\u00e4nkt werden. Das hat folgende Konsequenzen:",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "Norma-full generiert die Kandidaten sehr viel unrestriktiver als Norma-small. Daher kommt es hier\u00f6fters vor, dass Norma-full bei keiner der Input-Formen die vorgegebene Lemma-Form generiert. D. h. Norma-full hat eine geringere Abdeckung als Norma-small.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "Im Fall von sehr kurzen Wortformen und Lemmata kann Norma-small (zu) viele der Input-Wortformen auf das vorgegebene Lemma abbilden, da alle innerhalb der Abbruch-Schwelle liegen. (2) zeigt ein solches Beispiel. Das vorgegebene Lemma ist\u00f6l und der dazugeh\u00f6rige Beleg enth\u00e4lt viele sehr kurze Wortformen. (3) zeigt die Liste der Wortformen aus (2), die Norma-small auf das Lemm\u00e4 ol abbilden konnte. Die Liste ist nach einem Score geordnet, den Norma ausgibt.\u00f6l (der erste VKF-Kandidat) ist demnach der \"beste\" Kandidat, den Norma generiert (was hier auch die korrekte Form ist). In der Evaluation (Kap. 6) wird jeweils nur die erste Form ber\u00fccksichtigt.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "(2) ch\u00fcmpt dann ain gast mit\u00f6l vnd wil zemarcht damit sten vnd gibet es von hant hin, als oft er ain lagel\u00f6ls auf tuet, so geit er ain pfunt\u00f6ls, als oft er die verchauffet.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "(3)\u00f6l, als, als, wil, oft, oft, lagel, von, sten, es, er, er, er, hin, ain, ain, ain, so, die, geit, mit, vnd, vnd, auf, pfunt, hant, gast, dann, tuet",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "Wir f\u00fchren eine sechsfache Crossvalidierung durch und trainieren Norma auf jeweils 500 Paaren aus drei verschiedenen Sprachr\u00e4umen (Nordoberdeutsch/nobd, Mittleres Ostoberdeutsch/moobd, Els\u00e4ssisch/els) und evaluieren auf jeweils 100 Paaren.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Norma als Tool f\u00fcr die VKF-Identifikation",
"sec_num": null
},
{
"text": "Im zweiten Ansatz verwenden wir ein k\u00fcnstliches neuronales Netz, um den Herausforderungen, die aus den FWB-Daten erwachsen k\u00f6nnen, zu begegnen. Neben ihrem geringem Umfang sind die Daten auch unvollst\u00e4ndig und sehr spezifisch: derzeit liegen Trainingsdaten nur f\u00fcr die e-, q-, r-und st-Strecken vor. In unserer Evaluation zeigte es sich allerdings, dass hieraus keine gr\u00f6\u00dferen Nachteile entstehen: Das\u00fcber die r-Strecke trainierte Netz generalisiert gut und ergibt f\u00fcr die anderen Strecken F-Scores, die mit denen der Trainingsdaten vergleichbar oder sogar besser sind (vgl. Tabelle 4). Dies ist von besonderer Bedeutung, da das FWB aktuell erst zu ca. 75% abgeschlossen ist und das Netz in Zukunft beliebige Texte lemmatisieren soll. Da\u00fcber das FWB nur eingeschr\u00e4nkte Trainingsdaten zu Verf\u00fcgung stehen, wurden einige manuell erstellte Normalisierungsregeln in das Netz aufgenommen, um spezielle F\u00e4lle, die f\u00fcr einen relativ gro\u00dfen Prozentsatz von Fehlern verantwortlich sind, schnell zu entsch\u00e4rfen (Ernst-Gerlach and Fuhr, 2006; Pilz et al., 2007) . Dieses Vorgehen erwies sich als erfolgreich, da schon wenige manuelle Regeln (vgl. Regeln 12-15 in Tabelle 1) den F-Score des Netzes signifikant anheben. Aktuell handelt es sich nur um Normalisierungsregeln im Sinne der Lemmazeichengestalt (Reichmann, 1986) , in Zukunft sollen auch sprachraumspezifische Regeln implementiert werden. 11 Die Topologie ist basal und empirisch unterst\u00fctzt. Das Netz entspricht einem typischen dreischichtigen feedforward-Netz mit einfacher verborgener Schicht, angewendeter Sigmoid-Funktion und zwei Gewichtsmatrizes (Goodfellow et al., 2018) , vgl. Abb. 1. Das Netz selbst ist in Python programmiert, orientiert sich in seinem Framework an Rashid (2017) sowie Steinwendner and Schwaiger (2019) und lernt gem\u00e4\u00df der Aufgabenstellung\u00fcberwacht und parametrisch. Die Matrizenmultiplikation wird mit NumPy 12 realisiert.",
"cite_spans": [
{
"start": 1001,
"end": 1031,
"text": "(Ernst-Gerlach and Fuhr, 2006;",
"ref_id": "BIBREF1"
},
{
"start": 1032,
"end": 1050,
"text": "Pilz et al., 2007)",
"ref_id": "BIBREF8"
},
{
"start": 1293,
"end": 1310,
"text": "(Reichmann, 1986)",
"ref_id": "BIBREF11"
},
{
"start": 1387,
"end": 1389,
"text": "11",
"ref_id": null
},
{
"start": 1601,
"end": 1626,
"text": "(Goodfellow et al., 2018)",
"ref_id": "BIBREF2"
},
{
"start": 1745,
"end": 1778,
"text": "Steinwendner and Schwaiger (2019)",
"ref_id": "BIBREF13"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Die Eingabe-und verdeckte Schicht sind gleich m\u00e4chtig, da die Verringerung von verdeckten Neu-ronen zu erheblichen Schwankungen der Fehlerquote w\u00e4hrend des Trainings gef\u00fchrt hat. Die Ausgabeschicht besteht nur aus einem Neuron, da das Netz anhand des Scores nur eine Voraussage dar\u00fcber trifft, ob ein Wort als Lemma erkannt wird oder nicht. Je h\u00f6her der Score, desto sicherer wird das betreffende Lemma erkannt. Hierbei wird analog zu Norma mit Paaren der Form < w i , l > gearbeitet.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Die Paarung von historischen Wortformen mit den Lemmata des FWB < w i , l > ergeben die Daten, die als Bewertungsvektor formalisiert werden. Dieser Vektor bildet die Eingabeschicht, deren Werte gewichtet und auf der verdeckten Schicht propagiert werden. Nach einer weiteren Gewichtung gibt das Netz auf der Ausgabeschicht einen Score an, der determiniert, ob lemmatisiert wird oder nicht. Diese Lemmatisierung wird anschlie\u00dfend anhand der bereits ausgezeichneten Strecken evaluiert und das Netz so trainiert. Diese Aspekte werden im Folgenden genauer erl\u00e4utert.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Bewertungsvektoren Da das FWB und die meisten maschinenlesbaren historischen Quellen nicht getaggt sind, kann nur auf jene Informationen zur\u00fcckgegriffen werden, die sich aus dem Vergleich der VKF mit den Lemmata des FWB ergeben. Dar\u00fcber hinaus werden Metadaten zum jeweiligen Sprachraum ber\u00fccksichtigt, da diese genutzt werden, um sprachraumspezifische Normalisierungen in das Netz einflie\u00dfen zu lassen.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Um 25 Buchstaben. Die Jaro-Winkler-Distanz wird entsprechend (Winkler, 1990) , die phonetische Distanz gem\u00e4\u00df der K\u00f6lner Phonetik (Postel, 1969) berechnet. Alle weiteren Distanzen ergeben sich aus den Normierungen, die Nichtbuchstaben aus dem Lemma entfernen, Diakritika und Ligaturen aufl\u00f6sen und die Originalschreibung gem\u00e4\u00df der Richtlinien f\u00fcr die FWB-Lemmazeichengestalt normalisieren (Reichmann, 1986) . Insofern folgt das Netz dem etablierten Ansatz, Vorkommensformen zu normalisieren, erm\u00f6glicht jedoch die Inklusion von Metadataden und h\u00e4ndisch erstellten Regeln, die sich f\u00fcr vergleichbare Ans\u00e4tze als hilfreich erwiesen haben. Da f\u00fcr die Zukunft abzusehen ist, dass Informationen zu den Wortarten zwar hilfreich, aber nicht nutzbar sein werden, ist geplant, nach den sprachraumspezifischen Regels\u00e4tzen auch spezielle FLexions-und Deklinationsregeln zu implementieren, die generelle Prinzipien erfassen, jedoch nicht auf Informationen zur Wortart angewiesen sind. Der Defaultwert f\u00fcr die Wortarten ist 0, das Feature f\u00fcr die entsprechende Wortart (unter Sonstige subsummiert das FWB Artikel, Interjektionen, etc.) ist 0,5.",
"cite_spans": [
{
"start": 61,
"end": 76,
"text": "(Winkler, 1990)",
"ref_id": "BIBREF15"
},
{
"start": 129,
"end": 143,
"text": "(Postel, 1969)",
"ref_id": "BIBREF9"
},
{
"start": 388,
"end": 405,
"text": "(Reichmann, 1986)",
"ref_id": "BIBREF11"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Insgesamt deckt das FWB vom Niederpreu\u00dfischen bis zum Alemannischen 31 Sprachr\u00e4ume ab. Der Default-Wert der entsprechenden Neuronen ist wiederum 0. Je nachdem welchem Sprachraum das jeweilige Wort zugeordnet ist, m\u00fcssen ggf. mehrere Neuronen aktiviert werden, da sowohl\u00fcber-als auch untergeordnete Sprachr\u00e4ume existieren. Refftrager ist z. B. in einer N\u00fcrnberger, d. h. einer oberfr\u00e4nkischen Quelle belegt (f\u00fcr St\u00e4dte wird immer der Sprachraum gew\u00e4hlt, in dem sie liegen). Da sich der oberfr\u00e4nkische Sprachraum aus keinen untergeordneten zusammensetzt, wird nur dessen Neuron aktiviert und der Wert 1 eingetragen. Bei einer rheinfr\u00e4nkischen Quelle m\u00fcssten hingegen mehrere Sprachr\u00e4ume ber\u00fccksichtigt werden, weil dieser Sprachraum aus dem hessischen und pf\u00e4lzischen besteht. F\u00fcr solche F\u00e4lle wird der Wert nach der auf dem Kehrwert der Gebietszahl basierenden Formel Feature = 0,3 + 0,5/x f\u00fcr x = Anzahl aktivierte Sprachr\u00e4ume berechnet. Insgesamt ergeben sich durchschnittliche Genauigkeiten von 84,3% mit Norma-small und 60,8% mit Norma-full. Der Gro\u00dfteil der Fehlerrate von Norma-full ergibt sich aus den F\u00e4llen, bei denen Norma kein passendes Lemma generiert. Schaut man sich die Genauigkeit bei den generierten Lemmata allein an (d. h. die Precision), so ergibt sich bei Norma-small 88,6% und bei Norma-full 91,9%.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Von den Korpora ist nobd das schwierigste, mit Genauigkeiten von 82,5% (Norma-small) und -Mapper Rules WLD # Lemmata Norma-small 88 417 276 1.019 Norma-full 609 422 256 513 Precision Norma-small 0 81,3 97,8 89,1 Norma-full 0 80,3 98,0 98,2 Tabelle 2: Verteilung der erzeugten Lemmata\u00fcber die Normalisierer sowie die jeweilige Genauigkeit (Durchschnitt in Prozent)",
"cite_spans": [],
"ref_spans": [
{
"start": 117,
"end": 259,
"text": "Norma-small 88 417 276 1.019 Norma-full 609 422 256 513 Precision Norma-small 0 81,3 97,8 89,1 Norma-full 0 80,3 98,0 98,2",
"ref_id": null
}
],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "52,8% (Norma-full), gegen\u00fcber rund 85% bzw. 65% bei den beiden anderen Korpora. Tabelle 2 zeigt, von welchen Normalisierern die erzeugten Lemmata in den beiden Szenarien stammen. \"-\" sind die F\u00e4lle, in denen Norma keinen Kandidaten generiert. Man sieht deutlich, dass ein Gro\u00dfteil der WLD-Lemmata, die im Szenario Norma-small dank des minimalen Ziellexikons erzeugt werden, im Szenario Norma-full nicht generiert werden und zu einer gro\u00dfen Anzahl von unanalysierten F\u00e4llen f\u00fchren (33,8%) . Gleichzeitig zeigt es sich, dass die Precision von WLD bei Norma-small deutlich abf\u00e4llt gegen\u00fcber Normafull (89,1% vs. 98,2%). D. h. von den rund 500 Lemmata, die Norma-small zus\u00e4tzlich generiert, sind nur rund 400 korrekt.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "In Tabelle 2 f\u00e4llt zudem auf, dass der Mapper in beiden Szenarien deutlich abf\u00e4llt gegen\u00fcber den anderen Normalisierern. Das ist zun\u00e4chst\u00fcberraschend, da der Mapper nur bei bereits bekannten Paaren aktiv wird. Die Fehleranalyse unten zeigt, dass die schlechte Performanz zu gro\u00dfen Teilen auf Eigenschaften der Evaluationsdaten zur\u00fcckgef\u00fchrt werden kann.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Abb. 3 zeigt die Precision der einzelnen Normalisierer. Rules schneidet hier am besten ab (mit Werten von 95.6-99.0%). Im Szenario Norma-full liefert WLD vergleichbar gute Ergebnisse (96.9-99.3%).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Fehleranalyse Wie schon erw\u00e4hnt, machen die fehlenden Lemmatisierungen einen wesentlichen Teil der Fehlerrate aus: bei Norma-small sind es 31,1%, bei Norma-full sogar 86,3%.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Kritischer sind allerdings die F\u00e4lle, in denen Norma eine VKF identifiziert, diese aber nicht die richtige ist (false positives). Das ist in 195 (Normasmall) bzw. 97 (Norma-Full) F\u00e4llen der Fall. Eine manuelle Analyse dieser F\u00e4lle ergab:",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Bei Norma-Full sind nur zwei dieser F\u00e4lle (7) Oster-und westerwint, den man ober und nider nent, w\u00e4en dick und oft und gegen denen pflegt man nit zu pauen; der oberwind pringt gern regen und ungewitter.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Von Norma-Small wurden die ersten 100 F\u00e4lle manuell analysiert. Davon waren 75 eigentlich korrekt. Dabei handelte es sich z. T. um die gleichen F\u00e4lle wie bei Norma-Full. Zus\u00e4tzlich kommt es hier zu echten Fehlern wie in der unteren H\u00e4lfte von Tabelle 3 illustriert. Z. B. wird f\u00fcr das Lemma erbe als VKF brief identifiziert. Der Grund daf\u00fcr ist, dass der Mapper kein Ziellexikon nutzt und als erste Komponente die (eigentlich gesuchte) Wortform erben auf das Lemma erben lemmatisiert hat, so dass die weiteren Normalisierer gar nicht mehr auf diese Wortform angewendet wurden. Rules und WLD h\u00e4tten sonst die VKF korrekt identifiziert. Dasselbe passiert im Fall von straff, das der Mapper auf strafe statt auf strafen lemmatisiert. Es w\u00e4re hier also zu\u00fcberlegen, den Output des Mappers zus\u00e4tzlich mit dem Ziellexikon abzugleichen.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Identifikation durch ein k\u00fcnstliches neuronales Netz",
"sec_num": "5"
},
{
"text": "Schon jetzt ergibt das noch unfertige k\u00fcnstliche neuronale Netz vielversprechende Ergebnisse, s. Tabelle 4. Auf Basis des aktuellen Trainings erhalten wir einen durchschnittlichen F-Score von 0,931. Da die einzelnen F-Scores\u00fcber die analysierten Strecken hinweg recht konstant sind, k\u00f6nnen wir davon ausgehen, dass das Netz weder\u00fcber-noch unterangepasst ist. Um die Treffsicherheit des Netz zu verbessern, sollen in Zukunft gemischtere Trainingsdaten aus allen manuell getaggten Strecken erstellt werden. Zudem scheint es sinnvoll, den Score,\u00fcber den lemmatisiert wird, nach oben zu korrigieren, das Netz so kritischer zu gestalten und false positives auszuschlie\u00dfen. Das damit einhergehende vermehrte Auftreten von false negatives ist zu verkraften, da diese, wenn das Netzwerk weiter trainiert wird, zur\u00fcckgehen sollten. Die folgenden Analysen basieren auf der a-und b-Strecke.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Ergebnisse des Netzes",
"sec_num": "6.2"
},
{
"text": "Hinsichtlich der Wortarten entf\u00e4llt der Gro\u00dfteil der Fehler auf flektierte Verben, vgl. Abb. 4. Ein besonderes Problem stellen Partikelverben da, die getrennt geschrieben nur dann lemmatisiert werden k\u00f6nnen, wenn die betreffenden Teilst\u00fccke direkt aufeinander folgen. Adjektive/Adverbien und Sonstige werden durchschnittlich bzw. unterdurchschnittlich gut erkannt, fallen aufgrund ihres relativ geringen Anteils von ca. 12% Adjektive/Adverbien und nur ca. 1,7% Sonstige weniger ins Gewicht. F\u00fcr die Verbesserung des Netzes ist daher zun\u00e4chst sowohl die Implementierung von Flexionsregeln angedacht, die flektierte Formen zur Infinitivform hin normalisieren, als auch ein Mechanismus zum Hinsichtlich der Wortl\u00e4nge werden VKF mit einer L\u00e4nge von 5-12 Buchstaben\u00fcberdurchschnittlich gut erkannt, vgl. Abb. 5. Dies ist erfreulich, da sie mit 62,5% (a-Strecke) und 72,2% (b-Strecke) den Gro\u00dfteil der zu lemmatisierenden VKF ausmachen.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Ergebnisse des Netzes",
"sec_num": "6.2"
},
{
"text": "Besonders interessant ist, dass W\u00f6rter, die nur aus einem Buchstaben bestehen, gut erkannt werden. Dies ist darauf zur\u00fcckzuf\u00fchren, dass es sich hierbei nur um Buchstabennamen handelt, die entsprechend gut zugeordnet werden k\u00f6nnen. Analog sollte dieser Mechanismus auch f\u00fcr besonders lange W\u00f6rter geltend gemacht werden, weswegen die Kurve nach dem zweiten lokalen Minimum nochmals ansteigt. Kurze W\u00f6rter werden erst dann problematisch, wenn sie, wie oben in (2) und (3) f\u00fcr Norma belegt, auch f\u00fcr das Netz zu false positives f\u00fchren. Dies erkl\u00e4rt auch die vergleichsweise Abbildung 6: F-Scores nach Sprachraum schlechten Scores der Sonstigen, da es sich hierbei generell um eher kurze W\u00f6rter handelt. Hier sollte die Korrektur des Scores nach oben false positives ausschlie\u00dfen. Eventuell ist zu\u00fcberlegen, ob es unterschiedliche Limits f\u00fcr den Score geben k\u00f6nnte, die von der Wortl\u00e4nge abh\u00e4ngig sind. Schlechter erkannte l\u00e4ngere W\u00f6rter fallen aufgrund ihrer geringen Frequenz weniger ins Gewicht.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Ergebnisse des Netzes",
"sec_num": "6.2"
},
{
"text": "Uber die Analyse der Sprachr\u00e4ume lassen sich einzelne herausarbeiten, die unterdurchschnittliche Werte aufweisen, wie z. B. das Oberdeutsche oder Preu\u00dfische (s. Abb. 6). 13 Dies weist auf Sprachr\u00e4ume hin, deren VKF erheblich von der Gestalt des Lemmazeichens im FWB abweichen (Preu\u00dfisch). Es k\u00f6nnte sich jedoch auch um Sprachr\u00e4ume handeln, die weniger belegt sind (Oberdeutsch mit nur durchschnittlich 0,1% aller VKF) und deren Systematiken daher nicht in gen\u00fcgendem Umfang vom Netz erlernt worden sind. Eine L\u00f6sung f\u00fcr beide Problematiken k\u00f6nnten Regelsets sein, die sprachraumspezifische Normalisierungen durchf\u00fchren und\u00fcber die entsprechenden Features der Sprachraum-Neuronen aktiviert werden. Solche Regelsets lassen sich mit Norma generieren und sollten f\u00fcr das Netz produktiv gemacht werden k\u00f6nnen. Daneben sollten die Trainingsdaten so gew\u00e4hlt werden, dass alle Sprachr\u00e4ume m\u00f6glichst gleich stark vertreten sind.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Ergebnisse des Netzes",
"sec_num": "6.2"
},
{
"text": "Wir haben in diesem Beitrag zwei Ans\u00e4tze beschrieben, die f\u00fcr die Identifikation von Vorkommensformen genutzt werden k\u00f6nnen. Beide erreichen noch keine perfekte Abdeckung. Norma erreicht mit ex- 13 In Ermangelung von geeigneten Sprachk\u00fcrzeln gem\u00e4\u00df ISO 639 werden die im FWB verwendeten Sprachk\u00fcrzel verwendet. trem wenig Trainingsdaten bereits gute Ergebnisse: die Pr\u00e4zision liegt z. B. bei Norma-full bei nahezu 100%, bei einer Abdeckung von 66.2%. Das Netz wurde auf einer gr\u00f6\u00dferen Datenmenge trainiert, die allerdings weniger spezifisch waren. Es erreicht eine Abdeckung von 86,66% und hinsichtlich der Sprachr\u00e4ume wesentlich homogenere Ergebnisse.",
"cite_spans": [
{
"start": 195,
"end": 197,
"text": "13",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Ausblick",
"sec_num": "7"
},
{
"text": "Die hier umrissene Lemmatisierung stellt eine notwendige Grundlage f\u00fcr eine geplante Semantisierung fr\u00fchneuhochdeutsche Texte dar. Ist ein gen\u00fcgend gro\u00dfer Anteil der entsprechenden Quellen lemmatisiert, kann, z. B.\u00fcber Kollokationsanalysen und vektorbasierte Verfahren damit begonnen werden, die Lesarten der erkannten Lemmata zu disambiguieren. Eine solche Semantisierung w\u00fcrde z. B. Wortformen von gnade nicht mehr nur auf den entsprechenden Artikel verlinken, sondern auf eine der 20 verschiedene Lesarten, die im FWB notiert sind und von 1. \"unverdiente, unerwartete, rettende, helfende Zuwendung des liebenden Gottes zum Menschen\"\u00fcber 10. \"Gabe, die eine h\u00f6hergestellte Person aufgrund einer wohlwollenden Gesinnung an einen in der Hierarchie Niedrigeren verteilt\" bis hin zu 17. \"Teil einer Begr\u00fc\u00dfungs-und Segensformel\" reichen. Allein dies zeigt, welchen Mehrwert eine zuk\u00fcnftige Semantisierung fr\u00fchneuhochdeutscher Texte haben k\u00f6nnte, der sich u. A. im Erkenntnisgewinn w\u00e4hrend der Lekt\u00fcre niederschlagen w\u00fcrde oder tiefergehende semantische Analysen wie beispielsweise eine Methaphernanalyse unterst\u00fctzen w\u00fcrde.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Ausblick",
"sec_num": "7"
},
{
"text": "Unser Dank gilt insbesondere Herrn Dr. Matthias Sch\u00fctze, der das FWB seit vielen Jahren technisch begleitet und in diesem Zusammenhang auch das k\u00fcnstliche neuronale Netz entwickelt hat.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
},
{
"text": "Die Daten stammen aus dem Mittleren Ostoberdeutsch (moobd.), vgl. Abschnitt 4.4 https://www.duden.de/ 5 https://www.linguistics.rub.de/ comphist/projects/anselm/ 6 https://www.linguistik.hu-berlin. de/de/institut/professuren/ korpuslinguistik/forschung/ ridges-projekt 7 https://www.linguistics. ruhr-uni-bochum.de/ref/",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
},
{
"text": "Sonderzeichen in den Wortformen innerhalb der Belege wie Satzzeichen (! ? , etc.) oder Anf\u00fchrungszeichen und Klammern werden gel\u00f6scht.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
},
{
"text": "Ein vergleichbares Vorgehen wurde f\u00fcr des Referenzkorpus Althochdeutsch genutzt, f\u00fcr dessen Lemmatisierer\u00fcber 700 Regeln manuell aufgestellt wurden, die pro Zeit und Raum gewissen Lautst\u00e4nden mehr oder weniger statistische Bedeutsamkeit zuweisen und somit die Metadaten eines Textes produktiv in die Analyse einflie\u00dfen lassen(Mittmann, 2016). Da das Fr\u00fchneuhochdeutsche jedoch wesentlich umfassender und somit zwangsl\u00e4ufig diverser\u00fcberliefert ist, gestaltet sich ein vergleichbarer Ansatz als unl\u00f6sbar komplexe Aufgabe. In Zukunft sollen entsprechende Regeln daher erlernt werden.12 https://numpy.org/ (letzter Zugriff: 02.06.2021)",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [
{
"text": "Norma als Lemmatisierer Norma wurde f\u00fcr die Normalisierung flektierter Wortformen entwickelt. F\u00fcr die VKF-Identifikation setzen wir Norma abweichend daf\u00fcr ein, VKF-Kandidaten aus Belegen zu lemmatisieren. In einer ersten Evaluation untersuchten wir daher zun\u00e4chst, wie gut Norma flektierte Originalschreibungen auf standardisierte Lemmata abbilden kann. Dazu f\u00fchrten wir eine sechsfache Crossvalidierung durch und trainierten Norma auf jeweils 500 Paaren aus drei verschiedenen Sprachr\u00e4umen (Nordoberdeutsch/nobd, Mittleres Ostoberdeutsch/moobd, Els\u00e4ssisch/els) und evaluierten auf jeweils 100 Paaren. Dieselben Splits wurden in Kap. 6 f\u00fcr die Evaluation der VKF-Identifikation durch Norma genutzt.Als Baseline verwendeten wir ein einfaches System, das jeweils die vorliegende Wortform als Lemma vorhersagt.Abb. 7 zeigt die Ergebnisse. Die Baseline der Genauigkeit liegt zwischen 15,0-18,2%, die Durchschnittswerte (\"average\") zwischen 56,8-69,8% pro Teilkorpus, was Norma f\u00fcr die (wesentlich leichtere) Aufgabe der VKF-Identifikation als m\u00f6gliches Tool erscheinen l\u00e4sst. Die Normalisierer Mapper und Rules erreichen gute Precision-Werte (Mapper: 70,1-84,0%, Rules: 67,3-84,0%). WLD schneidet am schlechtesten ab (48,3-60,1%), allerdings muss hier ber\u00fccksichtigt werden, dass WLD als letzte Komponente die \"schwierigen\" F\u00e4lle\u00fcbernimmt und insgesamt die meisten Wortformen lemmatisiert (gesamt: 1.800; WLD: 1.013; Mapper: 453; Rules: 333; ohne Analyse: 1). In allen F\u00e4llen sind die Werte f\u00fcr das Korpus nobd am niedrigsten.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Appendix",
"sec_num": null
}
],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Semi-)automatic normalization of historical texts using distance measures and the Norma tool",
"authors": [],
"year": null,
"venue": "Proceedings of the Workshop on Annotating Corpora for Research in the Humanities (ACRH-2)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Marcel Bollmann. 2012. (Semi-)automatic normaliza- tion of historical texts using distance measures and the Norma tool. In Proceedings of the Workshop on Annotating Corpora for Research in the Humanities (ACRH-2), Lisbon.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Generating search term variants for text collections with historic spellings",
"authors": [
{
"first": "Andrea",
"middle": [],
"last": "Ernst-Gerlach",
"suffix": ""
},
{
"first": "Norbert",
"middle": [],
"last": "Fuhr",
"suffix": ""
}
],
"year": 2006,
"venue": "Proceedings of the 28th European Conference on Information Retrieval Research (ECIR 2006)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Andrea Ernst-Gerlach and Norbert Fuhr. 2006. Gene- rating search term variants for text collections with historic spellings. In Proceedings of the 28th Euro- pean Conference on Information Retrieval Research (ECIR 2006), M\u00fcnchen.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "Deep Learning: Das umfassende Handbuch",
"authors": [
{
"first": "Ian",
"middle": [],
"last": "Goodfellow",
"suffix": ""
},
{
"first": "Yoshua",
"middle": [],
"last": "Bengio",
"suffix": ""
},
{
"first": "Aaron",
"middle": [],
"last": "Courville",
"suffix": ""
}
],
"year": 2018,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Ian Goodfellow, Yoshua Bengio, and Aaron Courville. 2018. Deep Learning: Das umfassende Handbuch.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "Stand der Kulturgutdigitalisierung in Deutschland: Eine Analyse und Handlungsvorschl\u00e4ge des DARIAH-DE Stakeholdergremiums",
"authors": [
{
"first": "Lisa",
"middle": [],
"last": "Klaffki",
"suffix": ""
},
{
"first": "Stefan",
"middle": [],
"last": "Schmunk",
"suffix": ""
},
{
"first": "Thomas",
"middle": [],
"last": "St\u00e4cker",
"suffix": ""
}
],
"year": 2018,
"venue": "DARIAH-DE working papers 26",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Lisa Klaffki, Stefan Schmunk, and Thomas St\u00e4cker. 2018. Stand der Kulturgutdigitalisierung in Deutschland: Eine Analyse und Handlungsvor- schl\u00e4ge des DARIAH-DE Stakeholdergremiums \"Wissenschaftliche Sammlungen\". DARIAH-DE working papers 26. G\u00f6ttingen.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "GermaLemma: A lemmatizer for German language text",
"authors": [
{
"first": "Markus",
"middle": [
"Konrad"
],
"last": "",
"suffix": ""
}
],
"year": 2019,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Markus Konrad. 2019. GermaLemma: A lemmati- zer for German language text. https://github. com/WZBSocialScienceCenter/germalemma.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "IWNLP: Inverse Wiktionary for natural language processing",
"authors": [
{
"first": "Matthias",
"middle": [],
"last": "Liebeck",
"suffix": ""
},
{
"first": "Stefan",
"middle": [],
"last": "Conrad",
"suffix": ""
}
],
"year": 2015,
"venue": "Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing",
"volume": "",
"issue": "",
"pages": "414--418",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Matthias Liebeck and Stefan Conrad. 2015. IWNLP: Inverse Wiktionary for natural language processing. In Proceedings of the 53rd Annual Meeting of the As- sociation for Computational Linguistics and the 7th International Joint Conference on Natural Langua- ge Processing (Short Papers), pages 414-418, Bei- jing, China.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "Automatisierter Abgleich des Lautstandes althochdeutscher Wortformen",
"authors": [
{
"first": "Roland",
"middle": [],
"last": "Mittmann",
"suffix": ""
}
],
"year": 2016,
"venue": "Special issue on Corpora and Resources for (Historical) Low Resource Languages",
"volume": "31",
"issue": "",
"pages": "17--24",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Roland Mittmann. 2016. Automatisierter Abgleich des Lautstandes althochdeutscher Wortformen. Journal for Language Technology and Computational Lin- guistics, 31(2):17-24. Special issue on Corpora and Resources for (Historical) Low Resource Langua- ges.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "The identification of spelling variants in English and German historical texts: Manual or automatic? Literary and Linguistic Computing",
"authors": [
{
"first": "Thomas",
"middle": [],
"last": "Pilz",
"suffix": ""
},
{
"first": "Andrea",
"middle": [],
"last": "Ernst-Gerlach",
"suffix": ""
},
{
"first": "Sebastian",
"middle": [],
"last": "Kempken",
"suffix": ""
},
{
"first": "Paul",
"middle": [],
"last": "Rayson",
"suffix": ""
}
],
"year": 2007,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Thomas Pilz, Andrea Ernst-Gerlach, Sebastian Kemp- ken, and Paul Rayson. 2007. The identification of spelling variants in English and German historical texts: Manual or automatic? Literary and Linguistic Computing, 23(1).",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "Die K\u00f6lner Phonetik. Ein Verfahren zur Identifizierung von Personennamen auf der Grundlage der Gestaltanalyse. IBM-Nachrichten, 19",
"authors": [
{
"first": "Hans Joachim",
"middle": [],
"last": "Postel",
"suffix": ""
}
],
"year": 1969,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Hans Joachim Postel. 1969. Die K\u00f6lner Phonetik. Ein Verfahren zur Identifizierung von Personenna- men auf der Grundlage der Gestaltanalyse. IBM- Nachrichten, 19. Jahrgang. Stuttgart.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Neuronale Netze selbst programmieren. Ein verst\u00e4ndlicher Einstieg mit Python",
"authors": [
{
"first": "Tariq",
"middle": [],
"last": "Rashid",
"suffix": ""
}
],
"year": 2017,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Tariq Rashid. 2017. Neuronale Netze selbst pro- grammieren. Ein verst\u00e4ndlicher Einstieg mit Python. O'Reilly, Heidelberg.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "Herausgeber: Robert R. Anderson",
"authors": [
{
"first": "",
"middle": [],
"last": "Oskar Reichmann",
"suffix": ""
}
],
"year": 1986,
"venue": "Fr\u00fchneuhochdeutsches W\u00f6rterbuch. Band 1: Einf\u00fchrung, a -\u00e4pfelkern. Berlin",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Oskar Reichmann. 1986. Fr\u00fchneuhochdeutsches W\u00f6rterbuch. Band 1: Einf\u00fchrung, a -\u00e4pfelkern. Ber- lin, New York. Herausgeber: Robert R. Ander- son [f\u00fcr Band 1], Ulrich Goebel, Anja Lobenstein- Reichmann [Einzelb\u00e4nde] & Oskar Reichmann [B\u00e4nde 3 und 7 in Verbindung mit dem Institut f\u00fcr deutsche Sprache; ab Band 9, Lieferung 5 im Auf- trag der Akademie der Wissenschaften zu G\u00f6ttin- gen].",
"links": null
},
"BIBREF12": {
"ref_id": "b12",
"title": "Deep learning-based morphological taggers and lemmatizers for annotating historical texts",
"authors": [
{
"first": "Helmut",
"middle": [],
"last": "Schmid",
"suffix": ""
}
],
"year": 2019,
"venue": "Proceedings of the 3rd International Conference on Digital Access to Textual Cultural Heritage (DATeCH2019)",
"volume": "",
"issue": "",
"pages": "133--137",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Helmut Schmid. 2019. Deep learning-based morpho- logical taggers and lemmatizers for annotating histo- rical texts. In Proceedings of the 3rd International Conference on Digital Access to Textual Cultural He- ritage (DATeCH2019), page 133-137. Association for Computing Machinery.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "Neuronale Netze programmieren mit Python",
"authors": [
{
"first": "Joachim",
"middle": [],
"last": "Steinwendner",
"suffix": ""
},
{
"first": "Roland",
"middle": [],
"last": "Schwaiger",
"suffix": ""
}
],
"year": 2019,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Joachim Steinwendner and Roland Schwaiger. 2019. Neuronale Netze programmieren mit Python. Rhein- werk, Bonn.",
"links": null
},
"BIBREF14": {
"ref_id": "b14",
"title": "A probabilistic morphology model for German lemmatization",
"authors": [
{
"first": "Christian",
"middle": [],
"last": "Wartena",
"suffix": ""
}
],
"year": 2019,
"venue": "Proceedings of the 15th Conference on Natural Language Processing (KONVENS 2019)",
"volume": "",
"issue": "",
"pages": "40--49",
"other_ids": {
"DOI": [
"10.25968/opus-1527"
]
},
"num": null,
"urls": [],
"raw_text": "Christian Wartena. 2019. A probabilistic morphology model for German lemmatization. In Proceedings of the 15th Conference on Natural Language Pro- cessing (KONVENS 2019), pages 40-49.",
"links": null
},
"BIBREF15": {
"ref_id": "b15",
"title": "Genauigkeit (links) und Precision der einzelnen Normalisierer (rechts) in der ersten Evaluation von Norma",
"authors": [
{
"first": "William",
"middle": [
"E"
],
"last": "Winkler",
"suffix": ""
}
],
"year": 1990,
"venue": "Proceedings of the Section on Survey Research Methods, G\u00f6ttingen. Abbildung",
"volume": "7",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "William E. Winkler. 1990. String comparator metrics and enhanced decision rules in the Fellegi-Sunter model of record linkage. In Proceedings of the Sec- tion on Survey Research Methods, G\u00f6ttingen. Abbildung 7: Genauigkeit (links) und Precision der ein- zelnen Normalisierer (rechts) in der ersten Evaluation von Norma",
"links": null
}
},
"ref_entries": {
"FIGREF0": {
"uris": null,
"text": "Abbildung 4: F-Scores nach Wortarten auf Basis der aund b-Strecke Abbildung 5: F-Scores in Abh\u00e4ngigkeit zur Wortl\u00e4nge. W\u00f6rter mit mehr als 20 Buchstaben wurden ausgeklammert, da sie nur punktuell auftreten Erfassen von nicht adjazent geschriebenen Partikelverben.",
"type_str": "figure",
"num": null
},
"TABREF2": {
"text": "z. B. die VKF Refftrager im Quellenzitat (4) als das Lemma reftr\u00e4ger zu identifizieren, werden insgesamt neun Bewertungsvektoren f\u00fcr s\u00e4mtliche Paarungen <secht, reftr\u00e4ger>, [. . . ], <Refftrager, reftr\u00e4ger> erstellt. Der Bewertungsvektor f\u00fcr die VKF Refftrager entspricht der vierten Spalte von",
"content": "<table><tr><td>Merkmal</td><td>Erl\u00e4uterung</td><td>Wert</td></tr><tr><td>1 LLemma</td><td>L\u00e4nge Lemma</td><td>0,36</td></tr><tr><td>2 LOriginal</td><td>L\u00e4nge Originalschreibung</td><td>0,4</td></tr><tr><td colspan=\"2\">3 Durchsn.L Differenz L\u00e4ngen</td><td>0,05</td></tr><tr><td>4 Subst.</td><td>Substantiv</td><td>0,5</td></tr><tr><td>5 Adj.</td><td>Adjektiv/Adverb</td><td>0</td></tr><tr><td>6 Verb</td><td>Verb</td><td>0</td></tr><tr><td colspan=\"2\">7 Unbekannt Unbekannt</td><td>0</td></tr><tr><td>8 JW</td><td>Jaro-Winkler-Distanz</td><td>0,93</td></tr><tr><td>9 phon</td><td>phonetische Distanz</td><td>1</td></tr><tr><td>10 JW-norm</td><td>JW-Distanz mit Normierung</td><td>0,984</td></tr><tr><td colspan=\"2\">11 phon-norm ph-Distanz mit Normierung</td><td>1</td></tr><tr><td colspan=\"2\">12 JW-fwb-allg JW-Distanz mit FWB-Norm.</td><td>0,93</td></tr><tr><td>13 JW-kw-qu</td><td>JW-Distanz kw-qu</td><td>0,93</td></tr><tr><td>14 JW-ai-ei</td><td>JW-Distanz ai-ei</td><td>0,93</td></tr><tr><td>15 JW-ich-ig</td><td colspan=\"2\">JW-Distanz auslautendes ich-ig 0,93</td></tr><tr><td colspan=\"2\">16 nrdnieders. Nieders\u00e4chsisch</td><td>0</td></tr><tr><td>. . .</td><td/><td/></tr><tr><td>39 orfrk.</td><td>Ostfr\u00e4nkisch</td><td>1</td></tr><tr><td>. . .</td><td/><td/></tr><tr><td>45 balt.</td><td>Baltisch</td><td>0</td></tr><tr><td colspan=\"3\">Tabelle 1: Bewertungsmatrix f\u00fcr die Wortform Refftra-</td></tr><tr><td>ger</td><td/><td/></tr><tr><td>Tabelle 1.</td><td/><td/></tr><tr><td>(4) secht recht wie ein Hundsschlager | Oder ein</td><td/><td/></tr><tr><td>alter Refftrager</td><td/><td/></tr><tr><td>Alle Informationen m\u00fcssen f\u00fcr das Netz in nu-</td><td/><td/></tr><tr><td>merische Werte transformiert werden, damit sie als</td><td/><td/></tr><tr><td>Features der Eingabeneuronen dienen k\u00f6nnen. Die</td><td/><td/></tr><tr><td>Features und deren Werte ergeben sich aus Tests-</td><td/><td/></tr><tr><td>Trainings. Es wurden stets die Werte gew\u00e4hlt, f\u00fcr</td><td/><td/></tr><tr><td>die sich die beste Entwicklung des Fehlerquotien-</td><td/><td/></tr><tr><td>ten ergab (vgl. hierzu Abb. 2). Die Anhebung des</td><td/><td/></tr><tr><td>F-Scores wurde erst ansatzweise durch die Imple-</td><td/><td/></tr><tr><td>mentierung der Regeln 12-15 angegangen.</td><td/><td/></tr><tr><td>Die L\u00e4nge von Lemma und Wortform ergibt</td><td/><td/></tr><tr><td>sich als Verh\u00e4ltnis zur maximalen Wortl\u00e4nge von</td><td/><td/></tr></table>",
"html": null,
"type_str": "table",
"num": null
}
}
}
}