O que significa dizer que o Brasil é uma democracia?
O que significa dizer que o Brasil é uma democracia?
Resposta:
A democracia é o regime político em que a soberania é exercida pelo povo, os cidadãos são os detentores do poder e confiam parte desse poder ao Estado para que possa organizar a sociedade. Todas as decisões políticas devem estar em conformidade com o desejo do povo.