Apple pokračuje v záměru poskytnout uživatelům co nejlepší přehled o jejich zdravotních funkcích. Tentokrát v oblasti analýzy srdečního tepu. Nová studie s krkolomným názvem “Foundation Model Hidden Representations for Heart Rate Estimation from Auscultation” popisuje, jak lze využít velké jazykové modely (LLM) původně navržené pro rozpoznávání řeči ke zcela jinému účelu. A sice ke zjišťování srdeční frekvence z audionahrávek srdeční činnosti, tzv. fonokardiogramů. Apple testoval šest známých modelů, včetně Whisper od OpenAI, a také vlastní model CLAP (Contrastive Language-Audio Pretraining), který v testech jasně dominoval. Modely byly trénovány na zhruba 20 hodinách záznamů z veřejně dostupné databáze CirCor DigiScope. Tyto záznamy byly rozděleny na pětisekundové segmenty, z nichž vzniklo více než 23 tisíc úseků využitých k odhadu tepové frekvence.
Zásadní výhodou Apple modelu CLAP je jeho širší tréninkový rozsah. Na rozdíl od Whisperu a dalších modelů nebyl omezen pouze na lidskou řeč. Díky tomu si lépe poradil s analýzou zvuků srdce, což vedlo k nejnižší průměrné chybě odhadu mezi všemi testovanými modely. Apple ve studii uvádí, že technologie má potenciál zlepšit diagnostiku srdečních problémů, jako jsou arytmie nebo šelesty. V budoucnu by se tak podobné řešení mohlo stát součástí AirPods, které už nyní nabízejí funkce pro sledování sluchu a aktivní potlačení hluku. Podle spekulací by Apple mohl technologii kombinovat s novými senzory pro měření tepu a teploty. Pokud se technologie osvědčí, AirPods se mohou proměnit v chytrý zdravotní nástroj, který pomocí běžného poslechu dokáže včas upozornit na zdravotní problémy. O podobných věcech v souvislosti s AirPods se ostatně mluví už velmi dlouho.