Definicja
dermatologia to dziedzina medycyny zajmująca się schorzeniami skóry, włosów i paznokci
dermatologia to dziedzina medycyny zajmująca się schorzeniami skóry, włosów i paznokci
rzeczownik rodzaj żeński odmienny
formy w tabelce:
formy alfabetycznie: dermatologia; dermatologią; dermatologiach; dermatologiami; dermatologie; dermatologię; dermatologii; dermatologio; dermatologiom