¿Es realmente necesario ir al dentista siempre que te sale una caries? Tengo una caries y no me duele para nada.

  • 1 Respuesta
  • 401 visitas
  • Dra. Doctuo

    Carla Colomer Alsina respondió:

    Sí es realmente necesario ir al dentista cuando se tiene una caries. Las caries son una infección producida por bacterias que deteriora el esmalte y la dentina. Si no se trata esta infección seguirá avanzando pudiendo llegar al nervio, a afectar a los dientes adyacentes o incluso puede llegar a fracturarse el diente. No tratar las caries siempre acaba teniendo consecuencias y tratarlas suele ser más complejo y costoso que realizar una simple obturación cuando la caries es pequeña y asintomática. Definitivamente te recomiendo no esperar a realizar el tratamiento.

    Nota legal