CSV-zu-JSON-Konverter
CSV im Browser nach JSON konvertieren. RFC 4180, Typinferenz, Kopfzeile, Big-Int-sicher. 100 % privat, kein Upload.
Optionen · , · auto · LF · header · no BOM · flatten
Was ist JSON und warum aus CSV konvertieren?
JSON (JavaScript Object Notation) ist das universelle Format für API-Antworten, Konfigurationsdateien und strukturierten Datenaustausch — jede moderne Programmiersprache, jede Datenbank und jedes Web-Framework hat erstklassige JSON-Unterstützung. CSV (Comma-Separated Values) ist im Gegensatz dazu das älteste und am weitesten unterstützte tabellarische Format — jede Tabellenkalkulationsanwendung, jeder Datenbankexport und jedes Analytics-Werkzeug kann es erzeugen. Die Konvertierung zwischen ihnen ist eine der häufigsten Aufgaben im Data Engineering: Sie erhalten ein CSV aus einer Tabellenkalkulation, einem Datenbank-Dump oder einem Drittanbieter-Export und benötigen JSON, um eine API zu speisen, ein Frontend zu hydratisieren oder es in einen NoSQL-Speicher zu laden. Dieses Werkzeug ist für genau diesen Konvertierungsweg gebaut und behandelt vier Szenarien, die die meisten Online-Konverter verpfuschen.
Dieses Werkzeug hat im Vergleich zu typischen Online-CSV-zu-JSON-Konvertern vier wichtige Alleinstellungsmerkmale:
**1. RFC-4180-Zustandsautomaten-Parser.** CSV sieht einfach aus, aber die Anführungsregeln sind subtil: Ein in doppelte Anführungszeichen eingeschlossenes Feld kann Kommas, eingebettete Zeilenumbrüche und escapte doppelte Anführungszeichen (verdoppelt, wie "") enthalten. Naive Komma-Split-Parser scheitern an realen Daten — Adressen mit Kommas, mehrzeilige Textfelder und in Anführungszeichen eingeschlossene Werte mit Anführungszeichen. Dieses Werkzeug implementiert einen ordentlichen Zustandsautomaten-Parser nach RFC 4180 (der IETF-Spezifikation für CSV) und behandelt eingeschlossene Felder, eingebettete Trennzeichen, eingebettete Zeilenenden und escapte Anführungszeichen in jeder Richtung korrekt. Die Ausgabe ist round-trip-fähig durch Pythons csv-Modul, PostgreSQL COPY, AWS S3 SELECT und jeden konformen Parser.
**2. Typinferenz mit Big-Integer-Sicherheit.** Mit aktivierter Typinferenz werden numerische Zeichenketten zu Zahlen, true/false zu booleschen Werten, leere Zellen zu null. Die Inferenz-Pipeline hat jedoch zwei wichtige Schutzmechanismen: Zeichenketten mit führender Null (007, 0123) werden als Zeichenketten behalten, weil führende Nullen Bezeichner anzeigen — eine Konvertierung in eine Zahl würde sie stillschweigend entfernen. Und Ganzzahlen über 2^53 - 1 (9007199254740991) werden ebenfalls als Zeichenketten behalten, um IEEE-754-Präzisionsverlust zu vermeiden. Twitter-Snowflake-IDs, Discord-IDs, MongoDB-Long-Felder und K8s-resourceVersion bleiben alle exakt, statt stillschweigend gerundet zu werden. ISO-Datumszeichenketten werden bewusst als Zeichenketten behalten — JSON hat keinen nativen Datumstyp.
**3. Kopfzeile-Autonames oder erste Zeile verwenden.** Mit Kopfzeile an (Standard) wird die erste Zeile als Spaltennamen behandelt, und jede nachfolgende Zeile wird zu einem JSON-Objekt mit diesen Namen als Schlüsseln. Mit Kopfzeile aus benennt der Parser Spalten automatisch col1, col2, col3 — nützlich für Rohdaten-Dumps ohne Kopfzeile. Die Trennzeichen-Chip-Zeile deckt die vier häufigsten Trennzeichen ab: Komma (RFC-4180-Standard), Semikolon (Excel-EU-Locales), Tab (TSV von Unix-Werkzeugen und Data-Warehouses) und Pipe (Felder mit vielen Kommas). Wählen Sie den Chip und parsen — keine manuelle Konfiguration für typische reale CSVs nötig.
**4. 100 % browserbasierte Privatsphäre.** Ihre CSV-Daten — die oft personenbezogene Nutzerdaten, interne Datenbankexporte, Kundendatensätze und Produktionsexporte enthalten — verlassen Ihren Browser niemals. Es werden keine Daten an einen Server gesendet, keine Protokollierung, keine Analytics, die die Eingabe erfassen. Sie können dies in der Netzwerk-Registerkarte Ihres Browsers überprüfen. Dies ist der einzige sichere Weg, sensible Daten in einem Online-Werkzeug zu verarbeiten. Sehen Sie die umgekehrte Richtung durch Klicken auf Tauschen oder verwenden Sie unseren Begleit-JSON-zu-CSV-Konverter, wenn CSV Ihr Ziel ist. Müssen Sie die JSON-Ausgabe vor der Verwendung validieren? Probieren Sie unseren JSON-Formatierer.
Die Stärken von JSON sind präzise Typen, native Verschachtelung und eine strenge Spezifikation, die überall identisch parst — das richtige Format, wann immer eine Maschine die Daten konsumiert. Die Stärken von CSV sind Universalität und Menschenlesbarkeit — das richtige Format, wann immer ein Mensch eine Tabellenkalkulation öffnet. Das richtige Werkzeug hängt vom Verbraucher ab: Mensch liest eine Tabellenkalkulation → CSV, Maschine konsumiert eine API → JSON. Dieser Konverter behandelt die Brücke in beide Richtungen.
// Input CSV (comma + LF, header on, infer types on)
id,name,active,score
1,Alice,true,98.5
2,Bob,false,87
3,Carol,true,
// Output JSON
[
{ "id": 1, "name": "Alice", "active": true, "score": 98.5 },
{ "id": 2, "name": "Bob", "active": false, "score": 87 },
{ "id": 3, "name": "Carol", "active": true, "score": null }
]
// Same input with Header off (no first-row keys)
1,Alice,true,98.5
2,Bob,false,87
// Becomes
[
{ "col1": 1, "col2": "Alice", "col3": true, "col4": 98.5 },
{ "col1": 2, "col2": "Bob", "col3": false, "col4": 87 }
] Hauptfunktionen
RFC-4180-Zustandsautomaten-Parser
Strikter Zustandsautomaten-Parser nach der IETF-CSV-Spezifikation: korrekte Behandlung von eingeschlossenen Feldern, eingebetteten Trennzeichen, eingebettetem CR/LF und escapten doppelten Anführungszeichen (verdoppelt). Die Ausgabe ist sauber round-trip-fähig durch Python csv, PostgreSQL COPY und AWS S3 SELECT.
Typinferenz mit Big-Integer-Sicherheit
Typen ableiten an konvertiert numerische Zeichenketten in Zahlen, true/false in boolesche Werte, leere Zellen in null. Ganzzahlen über 2^53 - 1 bleiben Zeichenketten, um IEEE-754-Präzisionsverlust zu vermeiden; Zeichenketten mit führender Null (007, 0123) bleiben Zeichenketten, um die Bezeichner-Semantik zu bewahren.
Kopfzeile an/aus mit Autonames
Kopfzeile an (Standard) verwendet die erste Zeile als JSON-Schlüssel. Kopfzeile aus benennt Spalten automatisch col1, col2, col3 in Reihenfolge — nützlich für Rohdaten-Dumps und maschinell erzeugte CSVs ohne Kopfzeile. Die Autonames sind deterministisch und pipeline-freundlich.
Komma-, Semikolon-, Tab-, Pipe-Trennzeichen
Ein-Klick-Trennzeichen-Chips für die vier häufigsten Trennzeichen: `,` (RFC-4180-Standard), `;` (Excel-EU-Locales), `\t` (TSV von Unix-Werkzeugen, BigQuery, Snowflake) und `|` (Freitextfelder mit vielen Kommas). Der Parser wechselt sofort den Modus — keine vorherige Dateikonvertierung nötig.
Erkennung großer Ganzzahlen
Ganzzahlen über 2^53 werden während des Parsens erkannt und im JSON als Zeichenketten erhalten — Twitter-Snowflake-IDs, Discord-IDs, MongoDB-Long-Felder und K8s-resourceVersion bleiben exakt, statt durch JavaScripts IEEE-754-Number-Typ stillschweigend gerundet zu werden.
Bidirektional mit Tauschen
Ein Richtung-tauschen-Button kehrt die Konvertierung an Ort und Stelle um: Die Eingabe wird zu JSON, die Ausgabe zu CSV, der aktuelle Text bleibt erhalten. Round-trippen Sie Ihre Daten durch beide Richtungen, um die verlustfreie Konvertierung zu überprüfen, bevor Sie sie an eine Pipeline ausliefern.
Beispiele
Tabellenkalkulationsexport mit Kopfzeile
id,name,email,role 1,Alice,alice@example.com,admin 2,Bob,bob@example.com,editor 3,Carol,carol@example.com,viewer 4,Dan,dan@example.com,viewer
Standard-CSV aus einer Tabellenkalkulation. Mit aktivierter Kopfzeile und aktivierter Typinferenz erhalten Sie sauberes typisiertes JSON: Ganzzahlen bleiben Ganzzahlen, boolesche Werte und null werden erkannt.
Tab-getrennter Log-Export (TSV)
ts event user duration 2026-05-09T10:00:00Z signup alice 142 2026-05-09T10:01:00Z login alice 87 2026-05-09T10:02:00Z checkout alice 312 2026-05-09T10:03:00Z logout alice 44
Wählen Sie `\t` (Tab) als Trennzeichen. Die standardmäßig aktivierte Kopfzeile verwendet die erste Zeile automatisch als Schlüssel.
Excel-EU-CSV (Semikolon-Trennzeichen, CRLF)
id;name;price 1;Alice;1234,56 2;Bob;9876,54 3;Carol;42,00
Excel in den Locales DE/FR/IT/ES gibt `;` als Trennzeichen aus, weil das Komma das Dezimaltrennzeichen ist. Wählen Sie `;` aus dem Trennzeichen-Chip — der Parser erledigt den Rest.
Eingebettete Kommas und escapte Anführungszeichen
name,role,note "Smith, Jr.",admin,"He said ""hi""" "Doe, Jane",editor,"Two lines"
Standard-RFC-4180-Anführungszeichen: eingeschlossene Felder können Trennzeichen und escapte Anführungszeichen (verdoppelt) enthalten. Der Parser ist ein Zustandsautomat — er teilt niemals innerhalb von Anführungszeichen.
CSV mit großen Ganzzahl-IDs
id,event,user 9007199254740993,signup,alice 9007199254740994,login,bob 9007199254740995,checkout,carol
Große Ganzzahlen überschreiten den sicheren Bereich von JavaScript (2^53 - 1). Mit aktivierter Typinferenz erkennt der Parser dies und behält den Wert als Zeichenkette, um die Präzision zu bewahren — keine Rundung.
CSV ohne Kopfzeile
1,Alice,admin 2,Bob,editor 3,Carol,viewer 4,Dan,viewer
Schalten Sie die Kopfzeile aus; Spalten erhalten automatisch die Namen `col1`, `col2`, `col3`. Verwenden Sie dies für Rohdaten-Dumps ohne Kopfzeile.
Anleitung
- 1
CSV einfügen
Geben Sie Ihr CSV in das Eingabefeld oben ein oder fügen Sie es ein. Das Werkzeug akzeptiert komma-, semikolon-, tab- und pipe-getrennte Daten. Sie können auch auf „Beispiel laden“ klicken, um ein Muster auszuprobieren, etwa einen Tabellenkalkulationsexport, ein TSV-Log oder ein Excel-EU-CSV mit Semikolons.
- 2
Trennzeichen wählen (oder Tab)
Klicken Sie auf `,` (Standard), `;` (Excel-EU-Semikolon), `\t` (TSV) oder `|` (Pipe), um das Trennzeichen mit einem Klick zu wechseln. Öffnen Sie den Optionsbereich für feine Kontrolle: Kopfzeile an/aus und Typen ableiten an/aus. Kopfzeile aus benennt Spalten automatisch col1, col2, col3.
- 3
JSON kopieren oder herunterladen
Klicken Sie auf Kopieren, um das JSON in Ihre Zwischenablage zu übernehmen, oder auf Herunterladen, um es als .json-Datei zu speichern, bereit für Ihren Code, Ihre API oder Ihre Pipeline. Für Round-Trips klicken Sie auf Richtung tauschen, um JSON an Ort und Stelle zurück nach CSV zu konvertieren.
Häufige Konvertierungsfallen
Eingebettetes Komma in der Quelle nicht eingeschlossen
Wenn Ihr CSV von Hand mit einem naiven join(',') erstellt wurde, sprengt jedes Feld, das ein Komma enthält (Smith, Jr. oder 1,234.56), die Spaltengrenzen — der Parser sieht zusätzliche Spalten, wo eine sein sollte. Die Lösung ist, das betroffene Feld gemäß RFC 4180 in doppelte Anführungszeichen einzuschließen. Dieses Werkzeug behandelt eingeschlossene Felder korrekt, aber das Quell-CSV muss korrekte Anführungszeichen verwenden.
name,role Smith, Jr.,admin // Parser reads 3 columns: "Smith", " Jr.", "admin"
name,role "Smith, Jr.",admin // Parser reads 2 columns: "Smith, Jr.", "admin"
Excel-EU-Semikolons als Komma geparst
Europäische Excel-Locales (Deutschland, Frankreich, Spanien, Italien usw.) geben semikolon-getrennte CSVs aus, weil das Komma für das Dezimaltrennzeichen reserviert ist. Wenn Sie das Trennzeichen auf `,` (Standard) belassen, wird jede Zeile in eine einzelne Spalte mit eingebetteten Semikolons zusammengelegt. Wählen Sie den `;`-Trennzeichen-Chip — der Parser wechselt in den Semikolon-Modus und erzeugt korrekte Spalten.
// Wrong delimiter (default comma) on Excel-EU file
id;name;price
1;Alice;1234,56
// Each row becomes one column: { col1: "1;Alice;1234,56" } // Correct: pick `;` Delimiter chip
id;name;price
1;Alice;1234,56
// Output: { id: 1, name: "Alice", price: "1234,56" } Große Ganzzahl-IDs verlieren Präzision nach JSON.parse
Twitter-Snowflake-IDs, Discord-IDs und andere 64-Bit-Ganzzahlen überschreiten JavaScripts sicheren Bereich (2^53 - 1) und verlieren an Präzision, wenn JSON.parse() sie als Zahlen liest. Mit aktivierter Typinferenz erkennt dieses Werkzeug Werte oberhalb der sicheren Grenze und behält sie stattdessen als Zeichenketten, um die exakten Ziffern zu bewahren. Verwenden Sie BigInt("9007199254740993") in Ihrem Code, um sie in einen numerischen Typ zurück zu konvertieren.
// Without big-int detection
{"id": 9007199254740993}
// JavaScript reads as 9007199254740992 (precision lost) // With Infer types on, big integers stay as strings
{"id": "9007199254740993"}
// Use BigInt(value) in code to preserve precision Kopfzeile enthält Leerzeichen
Wenn Ihre CSV-Kopfzeile `id, name, email` lautet (mit Leerzeichen nach den Kommas), werden die JSON-Schlüssel zu "id", " name", " email" — einschließlich des führenden Leerzeichens. Der Parser bewahrt die Kopfzeile gemäß RFC 4180 exakt wie angegeben. Die Lösung ist, entweder das Quell-CSV vor dem Einfügen zu bereinigen oder Schlüssel nachgelagert umzubenennen (jq 'with_entries(.key |= ltrimstr(" "))' oder JavaScript Object.fromEntries(Object.entries(o).map(([k,v]) => [k.trim(), v]))).
id, name, email 1, Alice, alice@example.com // Output keys: "id", " name", " email" (with leading spaces)
id,name,email 1,Alice,alice@example.com // Output keys: "id", "name", "email" (clean)
Inkonsistente Zeilenlänge
Wenn Zeilen im CSV unterschiedliche Spaltenanzahlen haben (manche mit nachgestellten Kommas, manche ohne), füllt der Parser fehlende Zellen mit leeren Zeichenketten (oder mit null bei aktivierter Typinferenz) und verwirft Zusätzliches über die Länge der Kopfzeile hinaus. Ein Schemahinweis-Warnhinweis erscheint, sodass Sie wissen, dass die Zeilen normalisiert wurden. Das ist normalerweise in Ordnung, aber überprüfen Sie die Ausgabe, wenn nachgelagerte Verbraucher eine strikte Zeilenform erwarten.
name,role,note Alice,admin Bob,editor,first day // Row 1 is short by one cell
// Output (note empty/null cell in row 1)
[
{ "name": "Alice", "role": "admin", "note": null },
{ "name": "Bob", "role": "editor", "note": "first day" }
] Datumszeichenketten unerwartet umgewandelt
ISO-8601-Datumszeichenketten (2026-05-09T10:00:00Z) werden in der JSON-Ausgabe bewusst als Zeichenketten behalten — JSON hat keinen nativen Datumstyp, daher würde eine Erzwingung entweder ein JavaScript-Date-Objekt erzeugen, das die Serialisierung nicht überlebt, oder einen numerischen Epoch-Wert, der Zeitzoneninformationen verliert. Das ist beabsichtigt. Parsen Sie Datumsangaben am Verwendungsort mit new Date(value) oder Ihrer bevorzugten Datumsbibliothek. Schalten Sie Typen ableiten nicht nur aus, um Datumsangaben zu erhalten — das würde auch Zahlen als Zeichenketten behalten.
// Expecting a Date object in the output ts,event 2026-05-09T10:00:00Z,signup // Output ts is the string "2026-05-09T10:00:00Z", NOT a Date
// Correct: parse at the point of use in your code const rows = JSON.parse(output); const when = new Date(rows[0].ts); // when is now a Date object
Häufige Anwendungsfälle
- Tabellenkalkulationsexport zum API-Import
- Fügen Sie ein aus Excel, Google Sheets oder Numbers exportiertes CSV ein und erhalten Sie ein JSON-Array von Objekten, bereit für POST an eine REST-API, eine GraphQL-Mutation oder einen Bulk-Import-Endpunkt. Der häufigste Anwendungsfall — Analysten erzeugen Tabellenkalkulationsdaten, Ingenieure benötigen typisiertes JSON, um das Backend zu speisen.
- Excel-Export zu Tooling
- Konvertieren Sie Excel-CSV-Exporte (einschließlich Excel-EU-semikolon-getrennter Dateien mit dem `;`-Chip) in JSON für die Verarbeitung mit JavaScript-Tooling, jq-Skripten oder jedem System, das JSON liest. Der Parser behandelt das Entfernen des BOM und CRLF-Zeilenenden korrekt, sodass Excel-Exporte nicht in der ersten Zeile scheitern.
- TSV-Log zu Analytics
- Tab-getrennte Logs aus BigQuery-Exporten, Snowflake-Unloads, Vector-Pipelines oder Unix-Werkzeugen (cut, awk) kommen oft als .tsv. Wählen Sie den Tab-Trennzeichen-Chip und erhalten Sie ein typisiertes JSON-Array, bereit für ad-hoc-Analysen, Dashboard-Ingest oder Pipeline-Stage-Transformation.
- Datenbank-CSV-Dump zu ETL
- Konvertieren Sie PostgreSQL-COPY-TO-CSV-Ausgabe, MySQL-SELECT-INTO-OUTFILE oder einen beliebigen Datenbank-CSV-Dump in JSON zum Laden in einen NoSQL-Speicher, zum Speisen einer JavaScript-ETL-Pipeline oder zum Versenden an BigQuery als zeilenbegrenztes JSON. Die Erkennung großer Ganzzahlen bewahrt numerische IDs, die JavaScripts sicheren Bereich überschreiten.
- Postman/Newman-CSV-Testergebnis-Konsumierung
- Postman-Testläufe exportieren CSV-Berichte mit Erfolg/Misserfolg pro Anfrage. Konvertieren Sie nach JSON für die programmatische Konsumierung — speisen Sie ein Status-Dashboard, eine Alert-Pipeline oder einen Testergebnis-Aggregator. Zeilen mit unterschiedlicher Form (fehlgeschlagene Tests haben eine zusätzliche error-Spalte) werden mit leeren/null-Werten aufgefüllt.
- Kleines CSV zu schneller JSON-Konfiguration
- Haben Sie ein kleines CSV mit Konstanten — Währungscodes, Ländernamen, Produkt-SKUs — und benötigen ein JSON-Array für eine Konfigurationsdatei oder eine JavaScript-Konstante? Einfügen, kopieren, einfügen. Mit aktivierter Typinferenz werden Zahlen und boolesche Werte korrekt typisiert; mit aktivierter Kopfzeile erhalten Sie ein Array von Objekten mit benannten Feldern, bereit zum Ablegen in einer .json-Datei.
Technische Details
- Interna des RFC-4180-Zustandsautomaten-Parsers
- Der Parser ist eine ordentliche endliche Zustandsautomaten-Implementierung nach RFC 4180. Zustände umfassen UnquotedField, QuotedField, AfterQuote, RowEnd und EndOfInput. Der Parser behandelt korrekt eingeschlossene Felder mit Trennzeichen, eingebettetes CR/LF in eingeschlossenen Feldern, escapte doppelte Anführungszeichen (verdoppelt, wie "") und abschließende Zeilenumbrüche. Dies erzeugt eine Ausgabe, die verlustfrei durch Pythons csv-Modul, PostgreSQL COPY, AWS S3 SELECT und jeden konformen Parser round-trippt. Der Zustandsautomat ist trennzeichen-bewusst, sodass ein Wechsel von `,` zu `;` oder `\t` die Anführungssemantik nicht ändert — nur das Feldtrennzeichen.
- Algorithmus der Typinferenz
- Mit aktivierter Typinferenz wird jede Zelle durch eine geordnete Erkennungspipeline geführt. Erstens wird eine leere Zelle zu JSON null. Zweitens werden die literalen Zeichenketten true und false zu JSON-booleschen Werten. Drittens werden Zeichenketten mit führender Null (^0[0-9]+$) als Zeichenketten behalten, um die Bezeichner-Semantik zu bewahren — eine Konvertierung in Zahlen würde die führenden Nullen stillschweigend entfernen. Viertens werden Ganzzahlliterale gegen die Sicher-Ganzzahl-Grenze (-2^53+1 bis 2^53-1) geprüft; Werte außerhalb dieses Bereichs werden als Zeichenketten behalten, um IEEE-754-Präzisionsverlust zu vermeiden. Fünftens werden ISO-8601-Datumszeichenketten per Regex erkannt und bewusst als Zeichenketten behalten — JSON hat keinen nativen Datumstyp. Alles, was alle fünf Schutzmechanismen überlebt, wird per Number() konvertiert (numerisch) oder als Zeichenkette behalten (alles andere).
- BOM-Entfernung und Codierungsbehandlung
- Alle Eingaben werden als UTF-8 behandelt. Das optionale UTF-8 BOM (0xEF 0xBB 0xBF) wird stillschweigend aus der ersten Zelle der ersten Zeile entfernt, wenn vorhanden — dies verhindert, dass BOM-Bytes als Streuzeichen am Anfang des ersten Spaltennamens enthalten sind (Excel unter Windows gibt häufig das BOM aus, wodurch naive Parser scheitern). Andere Codierungen (Windows-1252, ISO-8859-1) werden nicht automatisch erkannt; die File-API des Browsers hätte die Bytes bereits als UTF-8 dekodiert, bevor der Text dieses Werkzeug erreicht. Wenn Sie nicht-UTF-8-Eingaben haben, konvertieren Sie sie zuerst mit iconv oder der Codierungs-Export-Option Ihres Editors, bevor Sie sie einfügen.
Best Practices
- Trennzeichen explizit für Nicht-Komma-Daten wählen
- Verlassen Sie sich nicht auf Auto-Erkennung. Wenn Ihr CSV Semikolons (Excel-EU), Tabs (TSV von BigQuery, Snowflake oder Unix-Werkzeugen) oder Pipes (Felder mit vielen Kommas) verwendet, klicken Sie vor dem Einfügen auf den passenden Trennzeichen-Chip. Der Parser ist trennzeichen-bewusst: Ein Wechsel des Chips parst die Eingabe sofort neu. Dies vermeidet den häufigsten CSV-zu-JSON-Fehlerfall, bei dem jede Zeile in eine einzelne Zelle zusammengelegt wird, weil der Parser das falsche Trennzeichen verwendet hat.
- Typen ableiten für typisiertes JSON aktiviert lassen
- Mit aktivierter Typinferenz (Standard) erhalten Sie typisiertes JSON: Zahlen als Zahlen, boolesche Werte als boolesche Werte, null, wo leere Zellen erscheinen. Das ist es, was die meisten Verbraucher wollen — APIs, Frontends, JavaScript-Code. Schalten Sie Typen ableiten nur aus, wenn Sie speziell jede Zelle als Zeichenkette für strenge nachgelagerte Typisierung benötigen (typstrenge nachgelagerte Verbraucher, Validierungspipelines, die exakte Quell-Bytes vergleichen). Die Erkennungspipeline hat Schutzmechanismen für Zeichenketten mit führender Null, große Ganzzahlen und ISO-Datumsangaben, sodass Bezeichner und Datumsangaben auch bei aktivierter Inferenz sicher bleiben.
- IDs im vorgelagerten CSV als Zeichenketten einschließen
- Wenn Ihr CSV von einer Datenbank oder Pipeline erzeugt wird, die Sie kontrollieren, geben Sie große numerische IDs (Twitter-Snowflakes, Discord-IDs, K8s-resourceVersion) als in Anführungszeichen eingeschlossene CSV-Zeichenketten aus ("9007199254740993"), damit sie sauber durch die Typinferenz laufen. Der Parser behält sie ohnehin als Zeichenketten (die Big-Int-Erkennung fängt Werte über 2^53 - 1 ab), aber explizite Anführungszeichen sind der robusteste vorgelagerte Vertrag und vermeiden jede Mehrdeutigkeit über Präzision.
- Kopfzeile sollte die erste Zeile sein
- Kopfzeile an (Standard) erkennt automatisch die erste Zeile als Spaltennamen. Wenn Ihr CSV Kommentare, leere Zeilen oder Metadaten vor der Kopfzeile hat, entfernen Sie sie vor dem Einfügen — der Parser überspringt keine führenden Nicht-Daten-Zeilen. Für CSVs ohne Kopfzeile (Rohexporte, maschinell erzeugte Dumps) schalten Sie Kopfzeile aus, und die Spalten werden automatisch col1, col2, col3 in Reihenfolge benannt. Versuchen Sie nicht, eine Kopfzeile zu fälschen, indem Sie eine vor eine kopflose Datei stellen; entweder Kopfzeile aus oder die Quelle reparieren.
- Stringify-Modus für CSV → JSON → CSV-Round-Trips verwenden
- Wenn Sie planen, Daten durch beide Richtungen zu round-trippen (CSV → JSON → CSV), benötigt die umgekehrte Richtung (JSON → CSV) den Stringify-Modus, damit verschachtelte Arrays oder Objekte verlustfrei überleben. Der Verschachtelungsmodus in der umgekehrten Richtung erzeugt Punkt-Schlüssel (customer.address.city), die vom CSV-Parser nicht perfekt rekonstruiert werden können. Sehen Sie sich unseren JSON-zu-CSV-Konverter für die vollständige Referenz der umgekehrten Richtung und Round-Trip-Testhinweise an.
Häufig gestellte Fragen
Was macht dieses Werkzeug?
Werden meine Daten irgendwohin hochgeladen?
Wie funktioniert die Typinferenz?
Warum werden große Ganzzahlen als Zeichenketten behalten?
Mein CSV verwendet Semikolons — wie parse ich es?
Verarbeitet es TSV (tab-getrennt)?
Was, wenn mein CSV keine Kopfzeile hat?
Kann es eingeschlossene Felder mit eingebetteten Kommas verarbeiten?
Warum werden meine Datumsangaben als Zeichenketten behalten?
Was passiert, wenn Zeilen unterschiedliche Längen haben?
Wie groß darf eine Datei sein, die ich einfüge?
Kann ich JSON → CSV → JSON round-trippen?
Verwandte Werkzeuge
Alle Werkzeuge anzeigen →Base64-Dekodierer & -Kodierer
Kodierung & Formatierung
Base64 online kostenlos dekodieren und kodieren. Echtzeitkonvertierung mit voller UTF-8- und Emoji-Unterstützung. 100 % privat — läuft in Ihrem Browser. Keine Anmeldung nötig.
JSON Diff Vergleich
Kodierung & Formatierung
Zwei JSON-Dateien direkt im Browser vergleichen. Nebeneinander-Hervorhebung, RFC 6902 JSON Patch-Ausgabe, störende Felder wie Zeitstempel und IDs ignorieren. 100 % privat, kein Upload.
JSON-Formatierer & Validator
Kodierung & Formatierung
JSON sofort im Browser formatieren, validieren und verschönern. Kostenloses Online-Tool mit Syntaxprüfung, Fehlererkennung, Minifizierung und Ein-Klick-Kopie. 100 % privat.
JSON-Schema-Validator
Kodierung & Formatierung
JSON gegen ein JSON Schema sofort im Browser validieren. Unterstützt Draft 2020-12, 2019-09 und Draft-07 mit pfadgenauen Fehlermeldungen. 100 % privat — kein Upload, kein Konto, kostenlos.
JSON-zu-CSV-Konverter
Kodierung & Formatierung
JSON im Browser nach CSV konvertieren. RFC 4180, Excel-EU, TSV, Pipe-Voreinstellungen. Verschachteln oder stringifizieren. 100 % privat, kein Upload.
JSON zu YAML Konverter
Kodierung & Formatierung
JSON einfügen und sofort YAML erhalten. Live-Konvertierung im Browser. K8s/Compose-kompatibel, 2/4-Leerzeichen-Einrückung, intelligentes Quoting. 100 % privat.