¿Es realmente necesario ir al dentista siempre que te sale una caries? Tengo una caries y no me duele para nada.
Carla Colomer Alsina respondió:
Sí es realmente necesario ir al dentista cuando se tiene una caries. Las caries son una infección producida por bacterias que deteriora el esmalte y la dentina. Si no se trata esta infección seguirá avanzando pudiendo llegar al nervio, a afectar a los dientes adyacentes o incluso puede llegar a fracturarse el diente. No tratar las caries siempre acaba teniendo consecuencias y tratarlas suele ser más complejo y costoso que realizar una simple obturación cuando la caries es pequeña y asintomática. Definitivamente te recomiendo no esperar a realizar el tratamiento.