Tomar el sol es algo que se ha hecho inherente a nuestra cultura. Es casi obligatorio lucir una piel bronceada durante la época de verano, incluso se le da aún... read more →
Tomar el sol es necesario para nuestro cuerpo y tiene numerosos beneficios sobre nuestro organismo ya que actúa como antidepresivo y ayuda sintetizar la vitamina D. Pero debemos mantener en... read more →