Ponieważ dostępnego API do danych EUROSTATU nie, każdy wniosek powinien być tworzone ręcznie.Znalazłem to spis treści i chcę go rozpakować w formacie JSON z możliwością wyszukiwania. W pliku są tytuły rozdziałów, i na każdym arkuszu są 3 linki, ale jak mogę połączyć linki, tytuły i rozdziały w JSON?
Mam ten podstawowy kod:
PDFFile = open("table_of_contents_en.pdf",'rb')
PDF = PyPDF2.PdfFileReader(PDFFile)
pages = PDF.getNumPages()
key = '/Annots'
uri = '/URI'
ank = '/A'
for page in range(1,2):
print("Current Page: {}".format(page))
pageSliced = PDF.getPage(page)
pageObject = pageSliced.getObject()
if key in pageObject.keys():
ann = pageObject[key]
for a in ann:
u = a.getObject()
if uri in u[ank].keys():
print(u[ank][uri])
I to do tekstu:
pdfFileObj = open('table_of_contents_en.pdf', 'rb')
pdfReader = PyPDF2.PdfFileReader(pdfFileObj)
print(pdfReader.numPages)
pageObj = pdfReader.getPage(0)
print(pageObj.extractText())
pdfFileObj.close()
i to do pobrania zip:
for page in range(1,2):
print("Current Page: {}".format(page))
pageSliced = PDF.getPage(page)
pageObject = pageSliced.getObject()
if key in pageObject.keys():
ann = pageObject[key]
for a in ann:
u = a.getObject()
if uri in u[ank].keys():
print(u[ank][uri])
if str(u[ank].keys()).find(".tsv.gz") != -1 :
url = str(u[ank].keys())
r = requests.get(url, allow_redirects=True)
print(str(str(str(u[ank].keys()).split("/")[-1]).split(".")[0])
open(str(str(str(u[ank].keys()).split("/")[-1]).split(".")[0]), 'wb').write(r.content)
Ale jak mogę to zrobić w tym samym czasie poprawnie, w niektórych danych strukturalnych?