Apple ve své nové studii ukazuje, že umělá inteligence se může naučit rozpoznávat strukturu elektrické aktivity mozku i bez ručního označování odborníky. Výzkumníci popisují metodu PARS (PAirwise Relative Shift), která využívá principů self-supervised learningu. Tedy trénování modelu pouze na surových, neoznačených datech. Současné modely pro analýzu EEG často spoléhají na anotovaná data, která určují například jednotlivé fáze spánku nebo přesné okamžiky výskytu záchvatů. Apple však zvolil odlišný přístup. Jejich model se učí předpovídat, jak daleko od sebe se v čase nacházejí různé krátké úseky EEG signálu.
Nová metoda se tak nezaměřuje na doplňování chybějících fragmentů, ale na pochopení širší struktury mozkových vln. Výsledky ukazují, že PARS umožňuje lépe zachytit dlouhodobé závislosti v signálu, což vede k vyšší přesnosti v úkolech, jako je detekce spánkových fází či epileptických záchvatů. V testech model překonal nebo dorovnal dosavadní nejlepší metody ve většině z použitých benchmarků. Výzkumníci využili mimo jiné dataset EESM17, který obsahuje měření z tzv. ear-EEG. Čili EEG elektrod umístěných v uchu. Tato technika dokáže zachytit řadu klinicky významných signálů a je vhodná pro nositelnou elektroniku.
Apple již dříve projevil zájem o tuto oblast. Patentová přihláška z roku 2023 popisuje zařízení pro měření biosignálů v uchu, přičemž zmiňuje právě ear-EEG a jeho omezení, zejména nutnost individuálního přizpůsobení tvaru ucha. V patentu Apple navrhuje řešení pomocí většího množství elektrod, mezi nimiž by AI dynamicky vybírala ty s nejlepším signálem. Studie přímo AirPody nezmiňuje, ale souběh výzkumu hardwaru i softwaru naznačuje, že Apple tuto oblast aktivně zkoumá. Teoreticky by podobná technologie mohla v budoucnu přinést funkce pro sledování spánku či detekci neurologických anomálií. Zda se však tyto koncepty někdy objeví v reálném produktu, zatím není jisté.