Colonialismo
Saltar para a navegação
Saltar para a pesquisa
(de colônia e este do lat. Coloniam). Doutrina que tende a legitimar a dominação politica e econômica de um território ou de uma nação pelo governo de um estado estrangeiro. Costuma se chamar assim ao processo iniciado no século XV com a conquista, assentamento e exploração, por parte de Europa, de territórios em América, Oriente e África. Espanha, Portugal, Inglaterra e os Países Baixos começaram as atividades coloniais. Desde 1880 e até princípios do século XX, a procura de novos mercados e matérias primas provocou o ressurgimento do colonialismo com a distribuição de África entre as grandes potencias européias, sobretudo Inglaterra e França (*Neocolonialismo e Imperialismo).