Skip to content

CSV-zu-JSON-Konverter

CSV im Browser nach JSON konvertieren. RFC 4180, Typinferenz, Kopfzeile, Big-Int-sicher. 100 % privat, kein Upload.

Kein Tracking Läuft im Browser Kostenlos
Voreinstellung
Optionen · , · auto · LF · header · no BOM · flatten
Trennzeichen
Erste Zeile ist Kopf
Typen ableiten
0 Zeichen 0 Zeilen
JSON-Ausgabe
0 Zeilen · 0 Spalten
Geprüft auf RFC-4180-Konformität, Korrektheit der Typinferenz, Erhalt der Präzision großer Ganzzahlen und Verhalten der Autonames ohne Kopfzeile — Go Tools Engineering Team · May 9, 2026

Was ist JSON und warum aus CSV konvertieren?

JSON (JavaScript Object Notation) ist das universelle Format für API-Antworten, Konfigurationsdateien und strukturierten Datenaustausch — jede moderne Programmiersprache, jede Datenbank und jedes Web-Framework hat erstklassige JSON-Unterstützung. CSV (Comma-Separated Values) ist im Gegensatz dazu das älteste und am weitesten unterstützte tabellarische Format — jede Tabellenkalkulationsanwendung, jeder Datenbankexport und jedes Analytics-Werkzeug kann es erzeugen. Die Konvertierung zwischen ihnen ist eine der häufigsten Aufgaben im Data Engineering: Sie erhalten ein CSV aus einer Tabellenkalkulation, einem Datenbank-Dump oder einem Drittanbieter-Export und benötigen JSON, um eine API zu speisen, ein Frontend zu hydratisieren oder es in einen NoSQL-Speicher zu laden. Dieses Werkzeug ist für genau diesen Konvertierungsweg gebaut und behandelt vier Szenarien, die die meisten Online-Konverter verpfuschen.

Dieses Werkzeug hat im Vergleich zu typischen Online-CSV-zu-JSON-Konvertern vier wichtige Alleinstellungsmerkmale:

**1. RFC-4180-Zustandsautomaten-Parser.** CSV sieht einfach aus, aber die Anführungsregeln sind subtil: Ein in doppelte Anführungszeichen eingeschlossenes Feld kann Kommas, eingebettete Zeilenumbrüche und escapte doppelte Anführungszeichen (verdoppelt, wie "") enthalten. Naive Komma-Split-Parser scheitern an realen Daten — Adressen mit Kommas, mehrzeilige Textfelder und in Anführungszeichen eingeschlossene Werte mit Anführungszeichen. Dieses Werkzeug implementiert einen ordentlichen Zustandsautomaten-Parser nach RFC 4180 (der IETF-Spezifikation für CSV) und behandelt eingeschlossene Felder, eingebettete Trennzeichen, eingebettete Zeilenenden und escapte Anführungszeichen in jeder Richtung korrekt. Die Ausgabe ist round-trip-fähig durch Pythons csv-Modul, PostgreSQL COPY, AWS S3 SELECT und jeden konformen Parser.

**2. Typinferenz mit Big-Integer-Sicherheit.** Mit aktivierter Typinferenz werden numerische Zeichenketten zu Zahlen, true/false zu booleschen Werten, leere Zellen zu null. Die Inferenz-Pipeline hat jedoch zwei wichtige Schutzmechanismen: Zeichenketten mit führender Null (007, 0123) werden als Zeichenketten behalten, weil führende Nullen Bezeichner anzeigen — eine Konvertierung in eine Zahl würde sie stillschweigend entfernen. Und Ganzzahlen über 2^53 - 1 (9007199254740991) werden ebenfalls als Zeichenketten behalten, um IEEE-754-Präzisionsverlust zu vermeiden. Twitter-Snowflake-IDs, Discord-IDs, MongoDB-Long-Felder und K8s-resourceVersion bleiben alle exakt, statt stillschweigend gerundet zu werden. ISO-Datumszeichenketten werden bewusst als Zeichenketten behalten — JSON hat keinen nativen Datumstyp.

**3. Kopfzeile-Autonames oder erste Zeile verwenden.** Mit Kopfzeile an (Standard) wird die erste Zeile als Spaltennamen behandelt, und jede nachfolgende Zeile wird zu einem JSON-Objekt mit diesen Namen als Schlüsseln. Mit Kopfzeile aus benennt der Parser Spalten automatisch col1, col2, col3 — nützlich für Rohdaten-Dumps ohne Kopfzeile. Die Trennzeichen-Chip-Zeile deckt die vier häufigsten Trennzeichen ab: Komma (RFC-4180-Standard), Semikolon (Excel-EU-Locales), Tab (TSV von Unix-Werkzeugen und Data-Warehouses) und Pipe (Felder mit vielen Kommas). Wählen Sie den Chip und parsen — keine manuelle Konfiguration für typische reale CSVs nötig.

**4. 100 % browserbasierte Privatsphäre.** Ihre CSV-Daten — die oft personenbezogene Nutzerdaten, interne Datenbankexporte, Kundendatensätze und Produktionsexporte enthalten — verlassen Ihren Browser niemals. Es werden keine Daten an einen Server gesendet, keine Protokollierung, keine Analytics, die die Eingabe erfassen. Sie können dies in der Netzwerk-Registerkarte Ihres Browsers überprüfen. Dies ist der einzige sichere Weg, sensible Daten in einem Online-Werkzeug zu verarbeiten. Sehen Sie die umgekehrte Richtung durch Klicken auf Tauschen oder verwenden Sie unseren Begleit-JSON-zu-CSV-Konverter, wenn CSV Ihr Ziel ist. Müssen Sie die JSON-Ausgabe vor der Verwendung validieren? Probieren Sie unseren JSON-Formatierer.

Die Stärken von JSON sind präzise Typen, native Verschachtelung und eine strenge Spezifikation, die überall identisch parst — das richtige Format, wann immer eine Maschine die Daten konsumiert. Die Stärken von CSV sind Universalität und Menschenlesbarkeit — das richtige Format, wann immer ein Mensch eine Tabellenkalkulation öffnet. Das richtige Werkzeug hängt vom Verbraucher ab: Mensch liest eine Tabellenkalkulation → CSV, Maschine konsumiert eine API → JSON. Dieser Konverter behandelt die Brücke in beide Richtungen.

// Input CSV (comma + LF, header on, infer types on)
id,name,active,score
1,Alice,true,98.5
2,Bob,false,87
3,Carol,true,

// Output JSON
[
  { "id": 1, "name": "Alice", "active": true, "score": 98.5 },
  { "id": 2, "name": "Bob", "active": false, "score": 87 },
  { "id": 3, "name": "Carol", "active": true, "score": null }
]

// Same input with Header off (no first-row keys)
1,Alice,true,98.5
2,Bob,false,87

// Becomes
[
  { "col1": 1, "col2": "Alice", "col3": true, "col4": 98.5 },
  { "col1": 2, "col2": "Bob", "col3": false, "col4": 87 }
]

Hauptfunktionen

RFC-4180-Zustandsautomaten-Parser

Strikter Zustandsautomaten-Parser nach der IETF-CSV-Spezifikation: korrekte Behandlung von eingeschlossenen Feldern, eingebetteten Trennzeichen, eingebettetem CR/LF und escapten doppelten Anführungszeichen (verdoppelt). Die Ausgabe ist sauber round-trip-fähig durch Python csv, PostgreSQL COPY und AWS S3 SELECT.

Typinferenz mit Big-Integer-Sicherheit

Typen ableiten an konvertiert numerische Zeichenketten in Zahlen, true/false in boolesche Werte, leere Zellen in null. Ganzzahlen über 2^53 - 1 bleiben Zeichenketten, um IEEE-754-Präzisionsverlust zu vermeiden; Zeichenketten mit führender Null (007, 0123) bleiben Zeichenketten, um die Bezeichner-Semantik zu bewahren.

Kopfzeile an/aus mit Autonames

Kopfzeile an (Standard) verwendet die erste Zeile als JSON-Schlüssel. Kopfzeile aus benennt Spalten automatisch col1, col2, col3 in Reihenfolge — nützlich für Rohdaten-Dumps und maschinell erzeugte CSVs ohne Kopfzeile. Die Autonames sind deterministisch und pipeline-freundlich.

Komma-, Semikolon-, Tab-, Pipe-Trennzeichen

Ein-Klick-Trennzeichen-Chips für die vier häufigsten Trennzeichen: `,` (RFC-4180-Standard), `;` (Excel-EU-Locales), `\t` (TSV von Unix-Werkzeugen, BigQuery, Snowflake) und `|` (Freitextfelder mit vielen Kommas). Der Parser wechselt sofort den Modus — keine vorherige Dateikonvertierung nötig.

Erkennung großer Ganzzahlen

Ganzzahlen über 2^53 werden während des Parsens erkannt und im JSON als Zeichenketten erhalten — Twitter-Snowflake-IDs, Discord-IDs, MongoDB-Long-Felder und K8s-resourceVersion bleiben exakt, statt durch JavaScripts IEEE-754-Number-Typ stillschweigend gerundet zu werden.

Bidirektional mit Tauschen

Ein Richtung-tauschen-Button kehrt die Konvertierung an Ort und Stelle um: Die Eingabe wird zu JSON, die Ausgabe zu CSV, der aktuelle Text bleibt erhalten. Round-trippen Sie Ihre Daten durch beide Richtungen, um die verlustfreie Konvertierung zu überprüfen, bevor Sie sie an eine Pipeline ausliefern.

Beispiele

Tabellenkalkulationsexport mit Kopfzeile

id,name,email,role
1,Alice,alice@example.com,admin
2,Bob,bob@example.com,editor
3,Carol,carol@example.com,viewer
4,Dan,dan@example.com,viewer

Standard-CSV aus einer Tabellenkalkulation. Mit aktivierter Kopfzeile und aktivierter Typinferenz erhalten Sie sauberes typisiertes JSON: Ganzzahlen bleiben Ganzzahlen, boolesche Werte und null werden erkannt.

Tab-getrennter Log-Export (TSV)

ts	event	user	duration
2026-05-09T10:00:00Z	signup	alice	142
2026-05-09T10:01:00Z	login	alice	87
2026-05-09T10:02:00Z	checkout	alice	312
2026-05-09T10:03:00Z	logout	alice	44

Wählen Sie `\t` (Tab) als Trennzeichen. Die standardmäßig aktivierte Kopfzeile verwendet die erste Zeile automatisch als Schlüssel.

Excel-EU-CSV (Semikolon-Trennzeichen, CRLF)

id;name;price
1;Alice;1234,56
2;Bob;9876,54
3;Carol;42,00

Excel in den Locales DE/FR/IT/ES gibt `;` als Trennzeichen aus, weil das Komma das Dezimaltrennzeichen ist. Wählen Sie `;` aus dem Trennzeichen-Chip — der Parser erledigt den Rest.

Eingebettete Kommas und escapte Anführungszeichen

name,role,note
"Smith, Jr.",admin,"He said ""hi"""
"Doe, Jane",editor,"Two
lines"

Standard-RFC-4180-Anführungszeichen: eingeschlossene Felder können Trennzeichen und escapte Anführungszeichen (verdoppelt) enthalten. Der Parser ist ein Zustandsautomat — er teilt niemals innerhalb von Anführungszeichen.

CSV mit großen Ganzzahl-IDs

id,event,user
9007199254740993,signup,alice
9007199254740994,login,bob
9007199254740995,checkout,carol

Große Ganzzahlen überschreiten den sicheren Bereich von JavaScript (2^53 - 1). Mit aktivierter Typinferenz erkennt der Parser dies und behält den Wert als Zeichenkette, um die Präzision zu bewahren — keine Rundung.

CSV ohne Kopfzeile

1,Alice,admin
2,Bob,editor
3,Carol,viewer
4,Dan,viewer

Schalten Sie die Kopfzeile aus; Spalten erhalten automatisch die Namen `col1`, `col2`, `col3`. Verwenden Sie dies für Rohdaten-Dumps ohne Kopfzeile.

Anleitung

  1. 1

    CSV einfügen

    Geben Sie Ihr CSV in das Eingabefeld oben ein oder fügen Sie es ein. Das Werkzeug akzeptiert komma-, semikolon-, tab- und pipe-getrennte Daten. Sie können auch auf „Beispiel laden“ klicken, um ein Muster auszuprobieren, etwa einen Tabellenkalkulationsexport, ein TSV-Log oder ein Excel-EU-CSV mit Semikolons.

  2. 2

    Trennzeichen wählen (oder Tab)

    Klicken Sie auf `,` (Standard), `;` (Excel-EU-Semikolon), `\t` (TSV) oder `|` (Pipe), um das Trennzeichen mit einem Klick zu wechseln. Öffnen Sie den Optionsbereich für feine Kontrolle: Kopfzeile an/aus und Typen ableiten an/aus. Kopfzeile aus benennt Spalten automatisch col1, col2, col3.

  3. 3

    JSON kopieren oder herunterladen

    Klicken Sie auf Kopieren, um das JSON in Ihre Zwischenablage zu übernehmen, oder auf Herunterladen, um es als .json-Datei zu speichern, bereit für Ihren Code, Ihre API oder Ihre Pipeline. Für Round-Trips klicken Sie auf Richtung tauschen, um JSON an Ort und Stelle zurück nach CSV zu konvertieren.

Häufige Konvertierungsfallen

Eingebettetes Komma in der Quelle nicht eingeschlossen

Wenn Ihr CSV von Hand mit einem naiven join(',') erstellt wurde, sprengt jedes Feld, das ein Komma enthält (Smith, Jr. oder 1,234.56), die Spaltengrenzen — der Parser sieht zusätzliche Spalten, wo eine sein sollte. Die Lösung ist, das betroffene Feld gemäß RFC 4180 in doppelte Anführungszeichen einzuschließen. Dieses Werkzeug behandelt eingeschlossene Felder korrekt, aber das Quell-CSV muss korrekte Anführungszeichen verwenden.

✗ Falsch
name,role
Smith, Jr.,admin
// Parser reads 3 columns: "Smith", " Jr.", "admin"
✓ Richtig
name,role
"Smith, Jr.",admin
// Parser reads 2 columns: "Smith, Jr.", "admin"

Excel-EU-Semikolons als Komma geparst

Europäische Excel-Locales (Deutschland, Frankreich, Spanien, Italien usw.) geben semikolon-getrennte CSVs aus, weil das Komma für das Dezimaltrennzeichen reserviert ist. Wenn Sie das Trennzeichen auf `,` (Standard) belassen, wird jede Zeile in eine einzelne Spalte mit eingebetteten Semikolons zusammengelegt. Wählen Sie den `;`-Trennzeichen-Chip — der Parser wechselt in den Semikolon-Modus und erzeugt korrekte Spalten.

✗ Falsch
// Wrong delimiter (default comma) on Excel-EU file
id;name;price
1;Alice;1234,56
// Each row becomes one column: { col1: "1;Alice;1234,56" }
✓ Richtig
// Correct: pick `;` Delimiter chip
id;name;price
1;Alice;1234,56
// Output: { id: 1, name: "Alice", price: "1234,56" }

Große Ganzzahl-IDs verlieren Präzision nach JSON.parse

Twitter-Snowflake-IDs, Discord-IDs und andere 64-Bit-Ganzzahlen überschreiten JavaScripts sicheren Bereich (2^53 - 1) und verlieren an Präzision, wenn JSON.parse() sie als Zahlen liest. Mit aktivierter Typinferenz erkennt dieses Werkzeug Werte oberhalb der sicheren Grenze und behält sie stattdessen als Zeichenketten, um die exakten Ziffern zu bewahren. Verwenden Sie BigInt("9007199254740993") in Ihrem Code, um sie in einen numerischen Typ zurück zu konvertieren.

✗ Falsch
// Without big-int detection
{"id": 9007199254740993}
// JavaScript reads as 9007199254740992 (precision lost)
✓ Richtig
// With Infer types on, big integers stay as strings
{"id": "9007199254740993"}
// Use BigInt(value) in code to preserve precision

Kopfzeile enthält Leerzeichen

Wenn Ihre CSV-Kopfzeile `id, name, email` lautet (mit Leerzeichen nach den Kommas), werden die JSON-Schlüssel zu "id", " name", " email" — einschließlich des führenden Leerzeichens. Der Parser bewahrt die Kopfzeile gemäß RFC 4180 exakt wie angegeben. Die Lösung ist, entweder das Quell-CSV vor dem Einfügen zu bereinigen oder Schlüssel nachgelagert umzubenennen (jq 'with_entries(.key |= ltrimstr(" "))' oder JavaScript Object.fromEntries(Object.entries(o).map(([k,v]) => [k.trim(), v]))).

✗ Falsch
id, name, email
1, Alice, alice@example.com
// Output keys: "id", " name", " email" (with leading spaces)
✓ Richtig
id,name,email
1,Alice,alice@example.com
// Output keys: "id", "name", "email" (clean)

Inkonsistente Zeilenlänge

Wenn Zeilen im CSV unterschiedliche Spaltenanzahlen haben (manche mit nachgestellten Kommas, manche ohne), füllt der Parser fehlende Zellen mit leeren Zeichenketten (oder mit null bei aktivierter Typinferenz) und verwirft Zusätzliches über die Länge der Kopfzeile hinaus. Ein Schemahinweis-Warnhinweis erscheint, sodass Sie wissen, dass die Zeilen normalisiert wurden. Das ist normalerweise in Ordnung, aber überprüfen Sie die Ausgabe, wenn nachgelagerte Verbraucher eine strikte Zeilenform erwarten.

✗ Falsch
name,role,note
Alice,admin
Bob,editor,first day
// Row 1 is short by one cell
✓ Richtig
// Output (note empty/null cell in row 1)
[
  { "name": "Alice", "role": "admin", "note": null },
  { "name": "Bob", "role": "editor", "note": "first day" }
]

Datumszeichenketten unerwartet umgewandelt

ISO-8601-Datumszeichenketten (2026-05-09T10:00:00Z) werden in der JSON-Ausgabe bewusst als Zeichenketten behalten — JSON hat keinen nativen Datumstyp, daher würde eine Erzwingung entweder ein JavaScript-Date-Objekt erzeugen, das die Serialisierung nicht überlebt, oder einen numerischen Epoch-Wert, der Zeitzoneninformationen verliert. Das ist beabsichtigt. Parsen Sie Datumsangaben am Verwendungsort mit new Date(value) oder Ihrer bevorzugten Datumsbibliothek. Schalten Sie Typen ableiten nicht nur aus, um Datumsangaben zu erhalten — das würde auch Zahlen als Zeichenketten behalten.

✗ Falsch
// Expecting a Date object in the output
ts,event
2026-05-09T10:00:00Z,signup
// Output ts is the string "2026-05-09T10:00:00Z", NOT a Date
✓ Richtig
// Correct: parse at the point of use in your code
const rows = JSON.parse(output);
const when = new Date(rows[0].ts);
// when is now a Date object

Häufige Anwendungsfälle

Tabellenkalkulationsexport zum API-Import
Fügen Sie ein aus Excel, Google Sheets oder Numbers exportiertes CSV ein und erhalten Sie ein JSON-Array von Objekten, bereit für POST an eine REST-API, eine GraphQL-Mutation oder einen Bulk-Import-Endpunkt. Der häufigste Anwendungsfall — Analysten erzeugen Tabellenkalkulationsdaten, Ingenieure benötigen typisiertes JSON, um das Backend zu speisen.
Excel-Export zu Tooling
Konvertieren Sie Excel-CSV-Exporte (einschließlich Excel-EU-semikolon-getrennter Dateien mit dem `;`-Chip) in JSON für die Verarbeitung mit JavaScript-Tooling, jq-Skripten oder jedem System, das JSON liest. Der Parser behandelt das Entfernen des BOM und CRLF-Zeilenenden korrekt, sodass Excel-Exporte nicht in der ersten Zeile scheitern.
TSV-Log zu Analytics
Tab-getrennte Logs aus BigQuery-Exporten, Snowflake-Unloads, Vector-Pipelines oder Unix-Werkzeugen (cut, awk) kommen oft als .tsv. Wählen Sie den Tab-Trennzeichen-Chip und erhalten Sie ein typisiertes JSON-Array, bereit für ad-hoc-Analysen, Dashboard-Ingest oder Pipeline-Stage-Transformation.
Datenbank-CSV-Dump zu ETL
Konvertieren Sie PostgreSQL-COPY-TO-CSV-Ausgabe, MySQL-SELECT-INTO-OUTFILE oder einen beliebigen Datenbank-CSV-Dump in JSON zum Laden in einen NoSQL-Speicher, zum Speisen einer JavaScript-ETL-Pipeline oder zum Versenden an BigQuery als zeilenbegrenztes JSON. Die Erkennung großer Ganzzahlen bewahrt numerische IDs, die JavaScripts sicheren Bereich überschreiten.
Postman/Newman-CSV-Testergebnis-Konsumierung
Postman-Testläufe exportieren CSV-Berichte mit Erfolg/Misserfolg pro Anfrage. Konvertieren Sie nach JSON für die programmatische Konsumierung — speisen Sie ein Status-Dashboard, eine Alert-Pipeline oder einen Testergebnis-Aggregator. Zeilen mit unterschiedlicher Form (fehlgeschlagene Tests haben eine zusätzliche error-Spalte) werden mit leeren/null-Werten aufgefüllt.
Kleines CSV zu schneller JSON-Konfiguration
Haben Sie ein kleines CSV mit Konstanten — Währungscodes, Ländernamen, Produkt-SKUs — und benötigen ein JSON-Array für eine Konfigurationsdatei oder eine JavaScript-Konstante? Einfügen, kopieren, einfügen. Mit aktivierter Typinferenz werden Zahlen und boolesche Werte korrekt typisiert; mit aktivierter Kopfzeile erhalten Sie ein Array von Objekten mit benannten Feldern, bereit zum Ablegen in einer .json-Datei.

Technische Details

Interna des RFC-4180-Zustandsautomaten-Parsers
Der Parser ist eine ordentliche endliche Zustandsautomaten-Implementierung nach RFC 4180. Zustände umfassen UnquotedField, QuotedField, AfterQuote, RowEnd und EndOfInput. Der Parser behandelt korrekt eingeschlossene Felder mit Trennzeichen, eingebettetes CR/LF in eingeschlossenen Feldern, escapte doppelte Anführungszeichen (verdoppelt, wie "") und abschließende Zeilenumbrüche. Dies erzeugt eine Ausgabe, die verlustfrei durch Pythons csv-Modul, PostgreSQL COPY, AWS S3 SELECT und jeden konformen Parser round-trippt. Der Zustandsautomat ist trennzeichen-bewusst, sodass ein Wechsel von `,` zu `;` oder `\t` die Anführungssemantik nicht ändert — nur das Feldtrennzeichen.
Algorithmus der Typinferenz
Mit aktivierter Typinferenz wird jede Zelle durch eine geordnete Erkennungspipeline geführt. Erstens wird eine leere Zelle zu JSON null. Zweitens werden die literalen Zeichenketten true und false zu JSON-booleschen Werten. Drittens werden Zeichenketten mit führender Null (^0[0-9]+$) als Zeichenketten behalten, um die Bezeichner-Semantik zu bewahren — eine Konvertierung in Zahlen würde die führenden Nullen stillschweigend entfernen. Viertens werden Ganzzahlliterale gegen die Sicher-Ganzzahl-Grenze (-2^53+1 bis 2^53-1) geprüft; Werte außerhalb dieses Bereichs werden als Zeichenketten behalten, um IEEE-754-Präzisionsverlust zu vermeiden. Fünftens werden ISO-8601-Datumszeichenketten per Regex erkannt und bewusst als Zeichenketten behalten — JSON hat keinen nativen Datumstyp. Alles, was alle fünf Schutzmechanismen überlebt, wird per Number() konvertiert (numerisch) oder als Zeichenkette behalten (alles andere).
BOM-Entfernung und Codierungsbehandlung
Alle Eingaben werden als UTF-8 behandelt. Das optionale UTF-8 BOM (0xEF 0xBB 0xBF) wird stillschweigend aus der ersten Zelle der ersten Zeile entfernt, wenn vorhanden — dies verhindert, dass BOM-Bytes als Streuzeichen am Anfang des ersten Spaltennamens enthalten sind (Excel unter Windows gibt häufig das BOM aus, wodurch naive Parser scheitern). Andere Codierungen (Windows-1252, ISO-8859-1) werden nicht automatisch erkannt; die File-API des Browsers hätte die Bytes bereits als UTF-8 dekodiert, bevor der Text dieses Werkzeug erreicht. Wenn Sie nicht-UTF-8-Eingaben haben, konvertieren Sie sie zuerst mit iconv oder der Codierungs-Export-Option Ihres Editors, bevor Sie sie einfügen.

Best Practices

Trennzeichen explizit für Nicht-Komma-Daten wählen
Verlassen Sie sich nicht auf Auto-Erkennung. Wenn Ihr CSV Semikolons (Excel-EU), Tabs (TSV von BigQuery, Snowflake oder Unix-Werkzeugen) oder Pipes (Felder mit vielen Kommas) verwendet, klicken Sie vor dem Einfügen auf den passenden Trennzeichen-Chip. Der Parser ist trennzeichen-bewusst: Ein Wechsel des Chips parst die Eingabe sofort neu. Dies vermeidet den häufigsten CSV-zu-JSON-Fehlerfall, bei dem jede Zeile in eine einzelne Zelle zusammengelegt wird, weil der Parser das falsche Trennzeichen verwendet hat.
Typen ableiten für typisiertes JSON aktiviert lassen
Mit aktivierter Typinferenz (Standard) erhalten Sie typisiertes JSON: Zahlen als Zahlen, boolesche Werte als boolesche Werte, null, wo leere Zellen erscheinen. Das ist es, was die meisten Verbraucher wollen — APIs, Frontends, JavaScript-Code. Schalten Sie Typen ableiten nur aus, wenn Sie speziell jede Zelle als Zeichenkette für strenge nachgelagerte Typisierung benötigen (typstrenge nachgelagerte Verbraucher, Validierungspipelines, die exakte Quell-Bytes vergleichen). Die Erkennungspipeline hat Schutzmechanismen für Zeichenketten mit führender Null, große Ganzzahlen und ISO-Datumsangaben, sodass Bezeichner und Datumsangaben auch bei aktivierter Inferenz sicher bleiben.
IDs im vorgelagerten CSV als Zeichenketten einschließen
Wenn Ihr CSV von einer Datenbank oder Pipeline erzeugt wird, die Sie kontrollieren, geben Sie große numerische IDs (Twitter-Snowflakes, Discord-IDs, K8s-resourceVersion) als in Anführungszeichen eingeschlossene CSV-Zeichenketten aus ("9007199254740993"), damit sie sauber durch die Typinferenz laufen. Der Parser behält sie ohnehin als Zeichenketten (die Big-Int-Erkennung fängt Werte über 2^53 - 1 ab), aber explizite Anführungszeichen sind der robusteste vorgelagerte Vertrag und vermeiden jede Mehrdeutigkeit über Präzision.
Kopfzeile sollte die erste Zeile sein
Kopfzeile an (Standard) erkennt automatisch die erste Zeile als Spaltennamen. Wenn Ihr CSV Kommentare, leere Zeilen oder Metadaten vor der Kopfzeile hat, entfernen Sie sie vor dem Einfügen — der Parser überspringt keine führenden Nicht-Daten-Zeilen. Für CSVs ohne Kopfzeile (Rohexporte, maschinell erzeugte Dumps) schalten Sie Kopfzeile aus, und die Spalten werden automatisch col1, col2, col3 in Reihenfolge benannt. Versuchen Sie nicht, eine Kopfzeile zu fälschen, indem Sie eine vor eine kopflose Datei stellen; entweder Kopfzeile aus oder die Quelle reparieren.
Stringify-Modus für CSV → JSON → CSV-Round-Trips verwenden
Wenn Sie planen, Daten durch beide Richtungen zu round-trippen (CSV → JSON → CSV), benötigt die umgekehrte Richtung (JSON → CSV) den Stringify-Modus, damit verschachtelte Arrays oder Objekte verlustfrei überleben. Der Verschachtelungsmodus in der umgekehrten Richtung erzeugt Punkt-Schlüssel (customer.address.city), die vom CSV-Parser nicht perfekt rekonstruiert werden können. Sehen Sie sich unseren JSON-zu-CSV-Konverter für die vollständige Referenz der umgekehrten Richtung und Round-Trip-Testhinweise an.

Häufig gestellte Fragen

Was macht dieses Werkzeug?
Es konvertiert CSV direkt in Ihrem Browser nach JSON, mit bidirektionaler Unterstützung: Klicken Sie auf Richtung tauschen, um JSON im selben Bereich zurück nach CSV zu konvertieren. Fügen Sie CSV in den Eingabebereich ein, und das Werkzeug erzeugt sofort eine JSON-Ausgabe — kein Upload, keine Anmeldung, nichts verlässt Ihr Gerät. Der Parser ist RFC-4180-konform, behandelt Trennzeichen-Chips für Komma, Semikolon (Excel-EU), Tab (TSV) und Pipe, und die Option Typen ableiten konvertiert numerische Zeichenketten in Zahlen, true/false in boolesche Werte und leere Zellen in null. Das Werkzeug behandelt außerdem große Ganzzahl-IDs, die sonst durch JSON.parse an Präzision verlieren würden, eingebettete Kommas in eingeschlossenen Feldern, escapte doppelte Anführungszeichen (verdoppelt) und kopflose Daten mit automatisch benannten Spalten (col1, col2, col3).
Werden meine Daten irgendwohin hochgeladen?
Nein. Die gesamte Konvertierung läuft zu 100 % clientseitig in Ihrem Browser mit JavaScript. Ihre CSV-Daten werden niemals übertragen, niemals auf einem Server gespeichert, niemals protokolliert und niemals analysiert. Damit ist das Werkzeug sicher für Tabellenkalkulationsexporte mit personenbezogenen Daten, interne CSV-Dumps aus Datenbanken, Kundendatensätze und alle sensiblen Daten. Sie können dies in der Netzwerk-Registerkarte Ihres Browsers überprüfen — das Einfügen von CSV löst keine Netzwerkanfragen aus. Das Werkzeug verwendet keine Cookies für Eingabedaten und keine Drittanbieter-Analytics, die das Eingefügte erfassen würden.
Wie funktioniert die Typinferenz?
Mit aktivierter Typinferenz wird jede geparste Zelle durch eine kleine Erkennungspipeline geführt, bevor sie im JSON platziert wird: numerische Zeichenketten (1, 42, -3.14) werden zu Zahlen, true/false werden zu booleschen Werten, leere Zeichenketten und das Literal null werden zu JSON null, alles andere bleibt eine Zeichenkette. Es gibt zwei wichtige Schutzmechanismen. Erstens werden Zeichenketten mit führender Null wie 007 oder 0123 als Zeichenketten behalten, auch wenn sie numerisch aussehen — führende Nullen weisen darauf hin, dass der Wert ein Bezeichner ist (Postleitzahlen, Telefonvorwahlen, Sequenz-IDs), und eine Konvertierung in eine Zahl würde die Nullen stillschweigend entfernen. Zweitens werden Ganzzahlen über 2^53 - 1 (9007199254740991) ebenfalls als Zeichenketten behalten, um IEEE-754-Präzisionsverlust zu vermeiden. ISO-Datumszeichenketten (2026-05-09T10:00:00Z) werden bewusst als Zeichenketten belassen — JSON hat keinen nativen Datumstyp, daher würde eine Erzwingung ein JavaScript-Date-Objekt erzeugen, das die Serialisierung nicht überlebt.
Warum werden große Ganzzahlen als Zeichenketten behalten?
JavaScripts Number-Typ verwendet IEEE-754-Doppelpräzision und kann Ganzzahlen nur exakt bis 2^53 - 1 (9007199254740991) darstellen. Reale Bezeichner — Twitter-Snowflake-IDs, Discord-IDs, MongoDB-Long-Felder, K8s-resourceVersion — sind 64-Bit-Ganzzahlen, die diesen sicheren Bereich überschreiten. Würde der Parser Number() auf diese anwenden, würde das Ergebnis stillschweigend gerundet (9007199254740993 wird zu 9007199254740992). Die Pipeline Typen ableiten erkennt Werte oberhalb der Sicher-Ganzzahl-Grenze und behält sie stattdessen als Zeichenketten, sodass die Ziffern intakt bleiben. Ein Warnbanner erscheint unter der Ausgabe und listet die betroffenen Felder auf. Um sie im Code präzise zurück zu konvertieren, verwenden Sie BigInt("9007199254740993") auf dem JSON-Zeichenkettenwert.
Mein CSV verwendet Semikolons — wie parse ich es?
Europäische Excel-Locales (Deutschland, Frankreich, Spanien, Italien usw.) geben semikolon-getrennte CSVs aus, weil das Komma für das Dezimaltrennzeichen reserviert ist. Klicken Sie auf den `;`-Chip in der Trennzeichen-Zeile (oder öffnen Sie den vollständigen Optionsbereich und wählen Sie `;`), und der Parser wechselt sofort in den Semikolon-Modus. Numerische Werte mit Komma-Dezimalstellen (1234,56) in solchen Dateien werden von der Typinferenz als Zeichenketten behalten, weil die europäische Dezimalnotation locale-spezifisch ist — konvertieren Sie sie im Code, wenn Sie numerische Werte benötigen. Der Parser wendet weiterhin die RFC-4180-Anführungsregeln mit dem neuen Trennzeichen an, sodass eingeschlossene Felder mit Semikolons darin korrekt behandelt werden.
Verarbeitet es TSV (tab-getrennt)?
Ja. Klicken Sie auf den Tab-Chip in der Trennzeichen-Zeile, und der Parser teilt an Tab-Zeichen statt an Kommas. TSV ist das sauberste Format für regionsübergreifendes CSV-Teilen, weil Tab in Textfeldern unwahrscheinlich vorkommt, was die meisten Anführungs-Sonderfälle eliminiert. Es ist die Standardausgabe von Unix-Werkzeugen (cut, awk), Data-Warehouses (BigQuery, Snowflake) und wird von Excel in jeder Locale gut unterstützt. Fügen Sie den Inhalt Ihrer .tsv- oder .tab-Datei direkt ein — der Rest des Parsers (Kopfzeile-Autonames, Typinferenz, Erkennung großer Ganzzahlen) funktioniert identisch.
Was, wenn mein CSV keine Kopfzeile hat?
Schalten Sie die Kopfzeile im Optionsbereich aus. Der Parser behandelt die erste Zeile als Daten statt als Spaltennamen und erzeugt automatisch Schlüssel: col1, col2, col3, … einen pro Spalte. Die Ausgabe-JSON ist ein Array von Objekten mit diesen synthetischen Schlüsseln. Das ist nützlich für Rohexporte aus Datenbanken, die die Kopfzeile weglassen, fixformatige Flat Files und maschinell erzeugte CSVs. Wenn Sie andere Schlüsselnamen wünschen, konvertieren Sie zuerst mit Autonames und benennen die Schlüssel dann in Ihrer nachgelagerten Pipeline um (jq, JavaScript map usw.). Das Werkzeug leitet keine Schlüssel aus Daten-Heuristiken ab — Kopfzeile aus erzeugt immer col1, col2, col3.
Kann es eingeschlossene Felder mit eingebetteten Kommas verarbeiten?
Ja. Der Parser ist ein ordentlicher RFC-4180-Zustandsautomat: Wenn er ein öffnendes doppeltes Anführungszeichen sieht, wechselt er in den Zustand QuotedField und behandelt alles bis zum nächsten nicht escapten doppelten Anführungszeichen als ein einzelnes Feld, einschließlich Trennzeichen und eingebetteter Zeilenenden (CR/LF). Escapte doppelte Anführungszeichen (verdoppelt, wie "") werden korrekt zu einem einzelnen Anführungszeichen reduziert. Das bedeutet, `"Smith, Jr."` wird als ein Feld mit dem Inhalt `Smith, Jr.` geparst, und `"He said ""hi"""` wird als `He said "hi"` geparst. Naive Komma-Split-Parser scheitern an solchen realen Daten; dieses Werkzeug nicht.
Warum werden meine Datumsangaben als Zeichenketten behalten?
Beabsichtigt. JSON hat keinen nativen Datumstyp — nur Zeichenketten, Zahlen, boolesche Werte, null, Arrays und Objekte. ISO-8601-Datumszeichenketten (2026-05-09T10:00:00Z) werden in der JSON-Ausgabe wortgetreu als Zeichenketten behalten, was die korrekte, verlustfreie Repräsentation ist. Würde der Parser sie zu JavaScript-Date-Objekten umwandeln, würde das Serialisieren des resultierenden JSON eine andere Ausgabe erzeugen (ein Objekt ohne nützliche Round-Trip-Repräsentation oder ein numerischer Zeitstempel). Behalten Sie Datumsangaben als Zeichenketten in JSON und parsen Sie sie am Verwendungsort mit new Date(value) oder Ihrer bevorzugten Datumsbibliothek. Das entspricht dem Verhalten jeder großen JSON-aus-CSV-Pipeline: Pandas, jq und der Python-Module csv + json.
Was passiert, wenn Zeilen unterschiedliche Längen haben?
Zeilen mit unterschiedlicher Form (manche mit mehr oder weniger Spalten als die Kopfzeile) werden auf die Länge der Kopfzeile aufgefüllt. Zusätzliche Zellen über die Spaltenanzahl der Kopfzeile hinaus werden verworfen, und fehlende Zellen werden auf eine leere Zeichenkette gesetzt (oder auf null, wenn Typen ableiten aktiv ist und der Parser einen leeren Wert sieht). Ein Schemahinweis-Warnhinweis erscheint unter der Ausgabe, sodass Sie wissen, dass die Zeilen normalisiert wurden. Das ist normalerweise in Ordnung für nachgelagerte Werkzeuge, die Schlüssel vereinigen, aber überprüfen Sie die Ausgabe, wenn Ihr Verbraucher eine strikte Konsistenz der Zeilenform erwartet. Die häufigste Ursache sind nachgestellte Kommas in einigen Zeilen oder eingeschlossene Felder mit eingebetteten Zeilenenden, die von vorgelagerten Exporteuren falsch gezählt werden.
Wie groß darf eine Datei sein, die ich einfüge?
Über 100.000 Zeichen oder 2.000 Zeilen wechselt die Live-Konvertierung automatisch in den manuellen Modus: Ein Konvertieren-Button erscheint in einem Info-Banner, und die Konvertierung läuft erst, wenn Sie darauf klicken. Dies verhindert, dass der Haupt-Thread des Browsers bei jedem Tastendruck durch umfangreiches Parsen blockiert wird. Bei Ausgaben über 5 MB oder 50.000 Zeilen kürzt das Werkzeug die JSON-Bildschirmvorschau auf die ersten 500 Zeilen und zeigt ein Banner mit dem Hinweis Zeige die ersten 500 von N Zeilen — der Herunterladen-Button erzeugt jedoch weiterhin die vollständige Datei mit allen Zeilen. Die harte Obergrenze liegt bei 10 MB Eingabe; darüber zeigt das Werkzeug einen Fehler und bittet Sie, die Eingabe zu reduzieren.
Kann ich JSON → CSV → JSON round-trippen?
Ja, wenn das JSON flach ist (keine verschachtelten Objekte oder Arrays). Bei verschachtelten Daten benötigt die umgekehrte Richtung (JSON → CSV) den Stringify-Modus, um Arrays und Objekte als JSON in einer einzelnen Zelle zu behalten — was dann verlustfrei durch diesen CSV-zu-JSON-Konverter round-trippt, wenn Typen ableiten aktiv ist. Klicken Sie oben im Bereich auf Richtung tauschen, um in den JSON-zu-CSV-Modus zu wechseln und den Round-Trip zu überprüfen. Der Verschachtelungsmodus in der umgekehrten Richtung ist einseitig: Er erzeugt Punkt-Schlüssel (customer.address.city), die nicht perfekt aus CSV rekonstruiert werden können. Sehen Sie sich unseren JSON-zu-CSV-Konverter für die umgekehrte Richtung mit voller Stringify-Unterstützung an.

Verwandte Werkzeuge

Alle Werkzeuge anzeigen →