Définition d’une carie

Définition d’une carie

Définition d’une carie

La carie est le résultat de l’attaque des dents par les acides en bouche provoquant la décalcification et la décomposition des différentes structures de la dent, en commençant par l’émail. Le dentiste peut attester d’une carie s’il y a une décoloration ou une friabilité avec l’explorateur.