DICCIONARIO MÉDICO

Biología

f. Ciencia que estudia a los seres vivos.