Wikipedia in italiano - l'enciclope...
Download this dictionary
West
Il termine West (ovest in inglese, occidente) indica le zone degli Stati Uniti d'America grosso modo a ovest del Mississippi, e in particolare nel periodo di progressiva occupazione da parte degli americani bianchi, più o meno lungo tutto il XIX secolo.

Per saperne di più visita Wikipedia.org...


© Questo articolo utilizza materiale tratto dell'enciclopedia online Wikipedia® ed è autorizzato sotto la licenza GNU Free Documentation License