Differences between revisions 1 and 6 (spanning 5 versions)
Revision 1 as of 2017-03-03 14:19:00
Size: 489
Editor: uid
Comment:
Revision 6 as of 2017-03-11 16:40:30
Size: 1258
Editor: uid
Comment:
Deletions are marked like this. Additions are marked like this.
Line 1: Line 1:
#format wiki
#language it
Line 11: Line 13:
Serie di pomeriggi di sperimentazione libera, segue workshop rivolto al pubblico.

== Temi ==
Line 15: Line 21:
  * Beautiful-soup per il parsing delle pagine   * Beautiful-soup e/o lxml per il parsing delle pagine
  * Web spider con scrapy
Line 17: Line 24:

== Riferimenti Sparsi ==
 * https://elitedatascience.com/python-web-scraping-libraries
 * https://first-web-scraper.readthedocs.io/en/latest/
 * https://medium.com/@kaismh/extracting-data-from-websites-using-scrapy-e1e1e357651a

== Codice ==
 * Ottenere l'elenco degli spazi di Macao:
 {{{
#!/usr/bin/env python3
import requests
from bs4 import BeautifulSoup

url = "http://www.macaomilano.org/spip.php?rubrique18"
r = requests.get(url)
page = r.text

soup = BeautifulSoup(page, "html.parser")

h2s = soup.findAll("h2")
spazi = [h2.text for h2 in h2s]

print("\n".join(spazi))
}}}

Costruzione Utensili

La Cultura è la nostra Natura, siamo cacciatori e raccoglitori in un mondo di dati.

Prerequisiti

  • Un'idea vaga di HTML
  • Saper scrivere, o anche solo leggere un qualsiasi linguaggio

Programma

Serie di pomeriggi di sperimentazione libera, segue workshop rivolto al pubblico.

Temi

Ancora da definire, ma a grandi linee:

  • Orientarsi con l'inspector del Browser
  • Rudimenti di web scraping con Python:
    • GET e fake-user agent con requests
    • Beautiful-soup e/o lxml per il parsing delle pagine
    • Web spider con scrapy
  • wget e qualcosa di bash?

Riferimenti Sparsi

Codice

  • Ottenere l'elenco degli spazi di Macao:
    import requests
    from bs4 import BeautifulSoup
    
    url = "http://www.macaomilano.org/spip.php?rubrique18"
    r = requests.get(url)
    page = r.text
    
    soup = BeautifulSoup(page, "html.parser")
    
    h2s = soup.findAll("h2")
    spazi = [h2.text for h2 in h2s]
    
    print("\n".join(spazi))

CostruzioneUtensili (last edited 2017-03-18 01:13:13 by subnixr)