Definicja
anatomia to nauka zajmująca się budową organizmów
anatomia to nauka zajmująca się budową organizmów
rzeczownik rodzaj żeński odmienny
formy w tabelce:
formy alfabetycznie: anatomia; anatomią; anatomiach; anatomiami; anatomie; anatomię; anatomii; anatomio; anatomiom
frazem rzeczownikowy rodzaj żeński odmienny
formy w tabelce:
formy alfabetycznie: anatomiach patologicznych; anatomiami patologicznymi; anatomia patologiczna; anatomią patologiczną; anatomię patologiczną; anatomie patologiczne; anatomii patologicznej; anatomii patologicznych; anatomiom patologicznym; anatomio patologiczna