Publicerad den Lämna en kommentar

AI och hörapparater – från DNN-chip till verkliga produkter

Moderna hörapparater förändras snabbt tack vare AI. I centrum för utvecklingen finns DNN-chip, som gör att hörapparater kan skilja tal från brus på ett mer naturligt sätt. Det gör det lättare att följa samtal även i miljöer med mycket ljud runt omkring.

Vad är ett DNN-chip?

Ett DNN-chip (Deep Neural Network) är en specialiserad processor som använder neurala nätverk, samma typ av AI som driver röstassistenter och bildigenkänning. I hörapparater används tekniken för att analysera ljud i realtid och skilja mellan viktigt tal och störande bakgrundsbrus.

Till skillnad från traditionella hörapparater, som förstärker ljud mer generellt, arbetar DNN-baserade system mer intelligent:

  • analyserar ljudmiljön kontinuerligt
  • identifierar tal i komplexa situationer
  • reducerar brus utan att försämra ljudkvaliteten
  • anpassar sig dynamiskt i realtid

Dessutom gör denna teknik att användaren slipper justera inställningar manuellt lika ofta. Därför upplevs ljudet som både mer naturligt och mindre ansträngande att lyssna på.

Hur fungerar tekniken i praktiken?

Utvecklare tränar DNN-chip med stora mängder ljuddata. På så sätt lär sig systemen känna igen mönster i både tal och bakgrundsljud. Dessutom förbättras modellerna kontinuerligt i takt med att mer data analyseras.

När användaren bär hörapparaten händer följande:

  1. Först fångar mikrofonerna upp ljud
  2. Därefter analyserar DNN-modellen och tolkar ljudbilden
  3. Sedan förstärker systemet tal och dämpar störningar
  4. Slutligen levererar hörapparaten ett optimerat ljud direkt till användaren

Samtidigt sker hela processen i realtid. Därför märker användaren ingen fördröjning, vilket är avgörande för en naturlig upplevelse.

Hörapparater som använder DNN-chip

    1. ReSound Vivia
      ReSound Vivia använder ett dedikerat DNN-chip för att analysera ljud och prioritera tal i realtid. Tekniken hjälper användaren att fokusera på samtal även i stökiga miljöer och bevarar samtidigt en känsla av omgivningen, vilket ger en mer balanserad ljudbild.

    2. Phonak Audéo Infinio Ultra Sphere
      Phonak Audéo Infinio Ultra Sphere kombinerar två chip: ett för AI-beräkningar och ett för traditionell ljudbearbetning. Hörapparaten kan snabbt separera tal från bakgrundsljud och förbättrar tydligheten i svåra lyssningssituationer, till exempel när flera personer pratar samtidigt.

    3. Starkey Edge AI-serien
      Starkey Edge AI-serien har en integrerad neural processing unit som förbättrar ljudbearbetning och anpassning i realtid. Tekniken gör det enklare att följa samtal i bullriga miljöer samtidigt som ljudets naturliga karaktär bevaras.

    4. Oticon AI-modeller
      Oticon AI-modeller använder avancerade algoritmer som automatiskt anpassar ljudet efter omgivningen. Detta gör det lättare att uppfatta tal i olika situationer och ger en mer balanserad ljudbild.

Vill du testa några av dessa hörapparater? Klicka här för att boka tid.

Louise Fogelqvist, Leg. Audionom

 

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *