0
0 Комментариев

С помощью кода я спарсил список ссылок.

import urllib.request
import requests
from bs4 import BeautifulSoup
 
def get_html(url):
    r = requests.get(url)
    return r.text
def get_all_links(html):
    soup = BeautifulSoup(html, 'lxml')
    tds = soup.find('table', class_="t2").find_all('td', class_='td3', align='center')
    links = []
    for td in tds:
        a = td.find("a", class_="a1")
        if a is not None:
            b = a.get('href')
            link = 'http://cvk.gov.ua/pls/vp2014/' + b
            links.append(link)
    return links
def get_page_data(html):
    soup = BeautifulSoup(html, 'lxml')
 
def main():
    url = "http://cvk.gov.ua/pls/vp2014/WP335?PT001F01=702"
    all_links =get_all_links(get_html(url))
if __name__ == '__main__':
    main()

Подскажите пожалуйста, как можно и лучше всего спарсить таблицу из каждой ссылки и все сохранить в один csv файл

all_links = ['http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=11', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=12', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=13', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=14', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=15', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=16', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=17', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=18', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=19', 'http://cvk.gov.ua/pls/vp2014/wp336?pt001f01=702&pt005f01=20']


Добавить комментарий