Antropocentrismo: significado explicado

O antropocentrismo é uma maneira de enxergar o mundo que coloca o ser humano no centro de tudo. Mas o que isso significa exatamente? Neste texto, vamos conversar sobre o conceito básico por trás dessa visão, um pouco da sua […]