Moje obejście jest pokrojenie putback
z prostą funkcją proponowaną tutaj
:
def chunk(l, n):
n = max(1, n)
return [l[i:i + n] for i in range(0, len(l), n)]
a potem
for chunk in chunk(putback, 250000):
curs.execute("UPDATE table1
SET col3 = p.result
FROM unnest(%s) p(sid INT, result JSONB)
WHERE sid = p.sid", (chunk,))
To działa, tj. utrzymuje zużycie pamięci w ryzach, ale nie jest zbyt eleganckie i wolniejsze niż zrzucanie wszystkich danych naraz, jak to zwykle robię.