489
Comment:
|
1258
|
Deletions are marked like this. | Additions are marked like this. |
Line 1: | Line 1: |
#format wiki #language it |
|
Line 11: | Line 13: |
Serie di pomeriggi di sperimentazione libera, segue workshop rivolto al pubblico. == Temi == |
|
Line 15: | Line 21: |
* Beautiful-soup per il parsing delle pagine | * Beautiful-soup e/o lxml per il parsing delle pagine * Web spider con scrapy |
Line 17: | Line 24: |
== Riferimenti Sparsi == * https://elitedatascience.com/python-web-scraping-libraries * https://first-web-scraper.readthedocs.io/en/latest/ * https://medium.com/@kaismh/extracting-data-from-websites-using-scrapy-e1e1e357651a == Codice == * Ottenere l'elenco degli spazi di Macao: {{{ #!/usr/bin/env python3 import requests from bs4 import BeautifulSoup url = "http://www.macaomilano.org/spip.php?rubrique18" r = requests.get(url) page = r.text soup = BeautifulSoup(page, "html.parser") h2s = soup.findAll("h2") spazi = [h2.text for h2 in h2s] print("\n".join(spazi)) }}} |
Costruzione Utensili
La Cultura è la nostra Natura, siamo cacciatori e raccoglitori in un mondo di dati.
Prerequisiti
- Un'idea vaga di HTML
- Saper scrivere, o anche solo leggere un qualsiasi linguaggio
Programma
Serie di pomeriggi di sperimentazione libera, segue workshop rivolto al pubblico.
Temi
Ancora da definire, ma a grandi linee:
- Orientarsi con l'inspector del Browser
- Rudimenti di web scraping con Python:
- GET e fake-user agent con requests
- Beautiful-soup e/o lxml per il parsing delle pagine
- Web spider con scrapy
- wget e qualcosa di bash?
Riferimenti Sparsi
Codice
- Ottenere l'elenco degli spazi di Macao:
import requests from bs4 import BeautifulSoup url = "http://www.macaomilano.org/spip.php?rubrique18" r = requests.get(url) page = r.text soup = BeautifulSoup(page, "html.parser") h2s = soup.findAll("h2") spazi = [h2.text for h2 in h2s] print("\n".join(spazi))