Рассмотрим следующий код в Python, используя psycopg2 cursor
объект (Некоторые имена столбцов были изменены или опущены для ясности):psycopg2 Копирование с использованием cursor.copy_from() замерзает с большими входами
filename='data.csv'
file_columns=('id', 'node_id', 'segment_id', 'elevated',
'approximation', 'the_geom', 'azimuth')
self._cur.copy_from(file=open(filename),
table=self.new_table_name, columns=file_columns)
- базы данных является расположенных на удаленной машине в быстрой локальной сети.
- Использование
\COPY
от bash работает очень быстро, даже для больших (~ 1,000,000 строк) файлов.
Этот код является сверхбыстрой для 5000 строк, но когда data.csv
растет за пределами 10 000 строк, программа полностью замораживается.
Любые мысли \ решения?
Адам
+1 Спасибо, что это решение я использовал, с немного другой синтаксис , Я не вижу никаких признаков блокировок, и активность диска нормальная (это довольно загруженный сервер). –