O significado da palavra

Encontre o significado ou definição de uma palavra em português


Definição de Brasil

^1
* m.
Planta leguminosa, de que se tira o pau-brasil.
* Ant.
Côr encarnada, com que as senhoras se enfeitavam.
Adj.
Diz-se de um pau vermelho empregado em tinturaria.
M. pl.
As terras do Brasil; os Brasileiros: «vy com fome da côr dos Brasis
vossa pele
». Usque, Tribulações, 50, V.^o