PostgreSQL
 sql >> Baza danych >  >> RDS >> PostgreSQL

Jak wygenerować schemat z pliku CSV dla kopii PostgreSQL?

Jeśli plik CSV nie jest zbyt duży i dostępny na komputerze lokalnym, csvkit to najprostsze rozwiązanie. Zawiera również szereg innych narzędzi do pracy z plikami CSV, więc jest to przydatne narzędzie wiedzieć ogólnie.

W najprostszym wpisaniu w powłoce:

$ csvsql myfile.csv

wydrukuje wymaganą CREATE TABLE Polecenie SQL, które można zapisać do pliku za pomocą przekierowania wyjścia.

Jeśli podasz również ciąg połączenia csvsql utworzy tabelę i prześle plik za jednym razem:

$ csvsql --db "$MY_DB_URI" --insert myfile.csv

Istnieją również opcje pozwalające określić smak SQL i CSV, z którymi pracujesz. Są one udokumentowane we wbudowanej pomocy:

$ csvsql -h
usage: csvsql [-h] [-d DELIMITER] [-t] [-q QUOTECHAR] [-u {0,1,2,3}] [-b]
              [-p ESCAPECHAR] [-z MAXFIELDSIZE] [-e ENCODING] [-S] [-H] [-v]
              [--zero] [-y SNIFFLIMIT]
              [-i {access,sybase,sqlite,informix,firebird,mysql,oracle,maxdb,postgresql,mssql}]
              [--db CONNECTION_STRING] [--query QUERY] [--insert]
              [--tables TABLE_NAMES] [--no-constraints] [--no-create]
              [--blanks] [--no-inference] [--db-schema DB_SCHEMA]
              [FILE [FILE ...]]

Generate SQL statements for one or more CSV files, create execute those
statements directly on a database, and execute one or more SQL queries.
positional arguments:
  FILE                  The CSV file(s) to operate on. If omitted, will accept
                        input on STDIN.

optional arguments:
  -h, --help            show this help message and exit
  -d DELIMITER, --delimiter DELIMITER
                        Delimiting character of the input CSV file.
  -t, --tabs            Specifies that the input CSV file is delimited with
                        tabs. Overrides "-d".
  -q QUOTECHAR, --quotechar QUOTECHAR
                        Character used to quote strings in the input CSV file.
  -u {0,1,2,3}, --quoting {0,1,2,3}
                        Quoting style used in the input CSV file. 0 = Quote
                        Minimal, 1 = Quote All, 2 = Quote Non-numeric, 3 =
                        Quote None.
  -b, --doublequote     Whether or not double quotes are doubled in the input
                        CSV file.
  -p ESCAPECHAR, --escapechar ESCAPECHAR
                        Character used to escape the delimiter if --quoting 3
                        ("Quote None") is specified and to escape the
                        QUOTECHAR if --doublequote is not specified.
  -z MAXFIELDSIZE, --maxfieldsize MAXFIELDSIZE
                        Maximum length of a single field in the input CSV
                        file.
  -e ENCODING, --encoding ENCODING
                        Specify the encoding the input CSV file.
  -S, --skipinitialspace
                        Ignore whitespace immediately following the delimiter.
  -H, --no-header-row   Specifies that the input CSV file has no header row.
                        Will create default headers.
  -v, --verbose         Print detailed tracebacks when errors occur.
  --zero                When interpreting or displaying column numbers, use
                        zero-based numbering instead of the default 1-based
                        numbering.
  -y SNIFFLIMIT, --snifflimit SNIFFLIMIT
                        Limit CSV dialect sniffing to the specified number of
                        bytes. Specify "0" to disable sniffing entirely.
  -i {access,sybase,sqlite,informix,firebird,mysql,oracle,maxdb,postgresql,mssql}, --dialect {access,sybase,sqlite,informix,firebird,mysql,oracle,maxdb,postgresql,mssql}
                        Dialect of SQL to generate. Only valid when --db is
                        not specified.
  --db CONNECTION_STRING
                        If present, a sqlalchemy connection string to use to
                        directly execute generated SQL on a database.
  --query QUERY         Execute one or more SQL queries delimited by ";" and
                        output the result of the last query as CSV.
  --insert              In addition to creating the table, also insert the
                        data into the table. Only valid when --db is
                        specified.
  --tables TABLE_NAMES  Specify one or more names for the tables to be
                        created. If omitted, the filename (minus extension) or
                        "stdin" will be used.
  --no-constraints      Generate a schema without length limits or null
                        checks. Useful when sampling big tables.
  --no-create           Skip creating a table. Only valid when --insert is
                        specified.
  --blanks              Do not coerce empty strings to NULL values.
  --no-inference        Disable type inference when parsing the input.
  --db-schema DB_SCHEMA
                        Optional name of database schema to create table(s)
                        in.

Kilka innych narzędzi również wykonuje wnioskowanie o schemacie, w tym:

  • Apache Spark
  • Pandy (Python)
  • Płomień (Python)
  • read.csv + twój ulubiony pakiet db w R

Każdy z nich ma funkcję wczytywania CSV (i innych formatów) do tabelarycznej struktury danych, zwykle nazywanej DataFrame lub podobnej, wnioskowania o typach kolumn w procesie. Następnie mają inne polecenia, aby albo napisać równoważny schemat SQL, albo przesłać DataFrame bezpośrednio do określonej bazy danych. Wybór narzędzia będzie zależał od ilości danych, sposobu ich przechowywania, specyfiki Twojego CSV, docelowej bazy danych i języka, w którym wolisz pracować.



  1. Database
  2.   
  3. Mysql
  4.   
  5. Oracle
  6.   
  7. Sqlserver
  8.   
  9. PostgreSQL
  10.   
  11. Access
  12.   
  13. SQLite
  14.   
  15. MariaDB
  1. Uzyskaj wynik z zapytania w funkcji DO

  2. dzielenie rzędów w Redshift

  3. PostgreSql :tablica Json do wierszy przy użyciu łączenia bocznego

  4. Jak zaimportować tabele z brakującymi wartościami?

  5. SQLAlchemy + Postgres:może być konieczne dodanie jawnych rzutowań typu podczas łączenia