ConhecimentoGeral

// Definição, referências, fotos e vídeos de termos e assuntos de conhecimento geral //


História do futebol no Brasil


A História do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.

Alguns clubes, principalmente fora do eixo Rio de Janeiro e São Paulo, ainda resistiam à modernização e continuavam amadores. Mas com o passar do tempo, quase todos foram se acomodando à nova realidade. Diversos clubes tradicionais e consagrados abandonaram a elite do futebol, ou até mesmo o esporte por completo.

Durante os governos, principalmente de Vargas, foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (1950), por exemplo, foram na Era Vargas. A vitória no Mundial de 1958, com um time comandado pelos negros Didi e Pelé, o mestiço Garrincha e pelo capitão paulista Bellini, ratificou o futebol como principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.

Fonte: Wikipedia (CC-BY)

Galeria de imagens de História do futebol no Brasil

[ REPORTAR ERRO / CONTRIBUIR ]

Vídeos relacionados

História do Futebol no Brasil


History of Football in Brazil / História do Futebol no Brasil


Historia do futebol








 

2016 | ConhecimentoGeral
Disponibilizado nos termos da licença Creative Commons: Atribuição - Compartilhada Igual 3.0 Não Adaptada (CC BY-SA 3.0)