import gradio as gr
import json
import os
import pandas as pd
import folium
from folium.plugins import MeasureControl, Fullscreen, MarkerCluster
from geopy.geocoders import Nominatim
from geopy.exc import GeocoderTimedOut, GeocoderServiceError
import time
import random
from typing import List, Tuple, Optional
import io
import tempfile
import warnings
import string
import spaces
from transformers import AutoModelForCausalLM, AutoTokenizer, AutoConfig
import torch
warnings.filterwarnings("ignore")
# Map Tile Providers with reliable sources
MAP_TILES = {
"GreenMap": {
"url": "https://server.arcgisonline.com/ArcGIS/rest/services/World_Imagery/MapServer/tile/{z}/{y}/{x}",
"attr": "Esri"
}
}
# Model configuration - corrected model name
MODEL_NAME = "numind/NuExtract-1.5" # Fixed model name according to documentation
DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
TORCH_DTYPE = torch.bfloat16 if DEVICE == "cuda" else torch.float32
MAX_INPUT_LENGTH = 20000 # For sliding window processing
MAX_NEW_TOKENS = 1000
# Global model variables
tokenizer = None
model = None
try:
from transformers.models.qwen2.tokenization_qwen2 import Qwen2Tokenizer
from transformers.models.qwen2.modeling_qwen2 import Qwen2ForCausalLM
print("Qwen2 components successfully imported")
except ImportError:
print("Could not import Qwen2 components directly")
class SafeGeocoder:
def __init__(self):
user_agent = f"location_mapper_v1_{random.randint(1000, 9999)}"
self.geolocator = Nominatim(user_agent=user_agent, timeout=10)
self.cache = {}
self.last_request = 0
def _respect_rate_limit(self):
current_time = time.time()
elapsed = current_time - self.last_request
if elapsed < 1.0:
time.sleep(1.0 - elapsed)
self.last_request = current_time
def get_coords(self, location: str):
if not location or pd.isna(location):
return None
location = str(location).strip()
if location in self.cache:
return self.cache[location]
try:
self._respect_rate_limit()
result = self.geolocator.geocode(location)
if result:
coords = (result.latitude, result.longitude)
self.cache[location] = coords
return coords
self.cache[location] = None
return None
except Exception as e:
print(f"Geocoding error for '{location}': {e}")
self.cache[location] = None
return None
def process_excel(file, places_column):
if file is None:
return None, "No file uploaded", None
try:
if hasattr(file, 'name'):
df = pd.read_excel(file.name)
elif isinstance(file, bytes):
df = pd.read_excel(io.BytesIO(file))
else:
df = pd.read_excel(file)
print(f"Spalten in der Excel-Tabelle: {list(df.columns)}")
if places_column not in df.columns:
return None, f"Spalte '{places_column}' wurde in der Excel-Datei nicht gefunden. Verfügbare Spalten: {', '.join(df.columns)}", None
# Create a new DataFrame to store expanded rows
expanded_rows = []
geocoder = SafeGeocoder()
coords = []
processed_count = 0
location_cache = {} # Cache to ensure consistent coordinates
# Process each row
for idx, row in df.iterrows():
if pd.isna(row[places_column]):
# Keep rows with no location as-is
expanded_rows.append(row.to_dict())
continue
location = str(row[places_column]).strip()
try:
locations = [loc.strip() for loc in location.split(',') if loc.strip()]
if not locations:
locations = [location]
except:
locations = [location]
# Process each location in the comma-separated list
location_rows_added = False
for loc in locations:
# Use cached coordinates if available
if loc in location_cache:
point = location_cache[loc]
else:
point = geocoder.get_coords(loc)
if point:
location_cache[loc] = point # Cache the result
if point:
# Create a new row for this location
new_row = row.copy()
new_row_dict = new_row.to_dict()
new_row_dict[places_column] = loc # Replace with just this location
new_row_dict['latitude'] = point[0]
new_row_dict['longitude'] = point[1]
# Add the row to our expanded rows list
expanded_rows.append(new_row_dict)
coords.append(point)
processed_count += 1
location_rows_added = True
# If none of the locations could be geocoded, keep the original row
if not location_rows_added:
expanded_rows.append(row.to_dict())
# Convert the list of dictionaries to a DataFrame
expanded_df = pd.DataFrame(expanded_rows)
# Create the map
m = folium.Map(
location=[20, 0],
zoom_start=2,
control_scale=True
)
folium.TileLayer(
tiles=MAP_TILES["GreenMap"]["url"],
attr=MAP_TILES["GreenMap"]["attr"],
name="GreenMap",
overlay=False,
control=False
).add_to(m)
Fullscreen().add_to(m)
MeasureControl(position='topright', primary_length_unit='kilometers').add_to(m)
# Add markers directly here
marker_cluster = MarkerCluster(name="Locations").add_to(m)
# Track which coordinates we've already placed on the map
seen_coords = {}
for idx, row in expanded_df.iterrows():
if 'latitude' in row and 'longitude' in row and not pd.isna(row['latitude']) and not pd.isna(row['longitude']):
location = row[places_column] if not pd.isna(row[places_column]) else "Unknown"
# Round coordinates to reduce small differences
rounded_lat = round(row['latitude'], 5)
rounded_lng = round(row['longitude'], 5)
coord_key = f"{rounded_lat},{rounded_lng}"
# Skip if we've already added a marker at this location
if coord_key in seen_coords:
continue
seen_coords[coord_key] = True
additional_info = ""
for col in expanded_df.columns:
if col not in [places_column, 'latitude', 'longitude'] and not pd.isna(row[col]):
additional_info += f"
{col}: {row[col]}"
popup_content = f"""
In dieser Unterrichtseinheit befassen wir uns mit der Strukturierung unstrukturierter historischer Texte und der Visualisierung von extrahierten Daten auf Karten. Die systematische Strukturierung von Daten wird mit einem für Informationsextrahierung trainiertem Sprachmodell durchgeführt, das auf der Question-Answering-Methode basiert. Diese Methode erlaubt es, Informationen mit Hilfe einer Frage zu extrahieren, wie etwa „Wo fand das Erdbeben statt"? Dies ermöglicht die Extrahierung des Ortes, an dem ein Erdbeben stattfand, auch wenn im Text selbst noch andere Orte genannt werden.
Die grundlegende Herausforderung bei der Arbeit mit historischen Quellen ist, dass relevante Informationen in langen Fließtexten eingebettet sind und manuell mühsam extrahiert werden müssen. Dieser Ansatz automatisiert diesen Prozess.
{"earthquake location": "", "dateline location": ""}
"earthquake location": ""
→ "Wo ist das Erdbeben passiert?""dateline location": ""
→ "Von wo wird berichtet?"{"earthquake location": "Japan, Yokohama", "dateline location": "Tokio"}
Intern erfolgt die Verarbeitung in mehreren Schritten:
Nach der Extraktion der Ortsangaben ermöglicht unsere Anwendung die automatische Visualisierung dieser Daten auf einer interaktiven Karte:
Dieser kombinierte Ansatz aus Textextraktion und geografischer Visualisierung eröffnet neue Möglichkeiten für die räumliche Analyse historischer Quellen und erlaubt es, geografische Muster zu erkennen, die in den reinen Textdaten nicht unmittelbar sichtbar wären.
Diese Methode ermöglicht die effiziente Extraktion und Visualisierung historischer Daten aus unstrukturierten Quellen.
Verwenden Sie das Sprachmodell NuExtract-1.5 um automatisch Informationen zu extrahieren.
Laden Sie eine Excel-Tabelle hoch und erstelle eine interaktive Karte.
Your map will appear here after processing
Made with ❤ for historical research