Il termine
West (
ovest in inglese, occidente) indica le zone degli
Stati Uniti d'America grosso modo a ovest del
Mississippi, e in particolare nel periodo di progressiva occupazione da parte degli americani bianchi, più o meno lungo tutto il
XIX secolo.