In seiner Vorschau auf die Updates im Betriebssystem iOS 17 für die Barrierefreiheit kündigte Apple auch die neuen Funktionen Personal Voice und Live Speech an.
Die Funktion Personal Voice kann in 15 Minuten eine Stimme erzeugen, die wie der Nutzer selbst oder ein geliebter Mensch klingt. Entwickelt wurde sie für Menschen, bei denen ein Verlust der Sprachfähigkeit durch ALS und andere Krankheiten droht.
Was bietet Personal Voice?
Die neue Funktion „Personal Voice“ wurde für Menschen entwickelt, die ihre Sprechfähigkeit verlieren könnten, wie zum Beispiel durch die Krankheit ALS.
Bei ALS handelt es sich um „amyotrophe Lateralsklerose, welche die Fähigkeit zu Sprechen im Verlauf der Zeit negativ beeinflusst.
Die erste Beta von iOS 17 bietet einem die Möglichkeit, die „Persönliche Stimme“ auszuprobieren. Mit dieser Funktion werden Benutzer aufgefordert, eine Reihe Textvorgaben vorzulesen, um 15 Minuten Audio auf dem iPhone oder iPad aufzunehmen.
Wie die Stimme erstellt wird
Die Erstellung der künstlichen Stimme erfolgt mit maschinellem Lernen. Die Stimme hört sich dann an, wie sie real klingt. Diese Sprachfunktion kann in Live Speech integriert werden, was Benutzer in die Lage versetzt, bei FaceTime-Anrufen und während Gesprächen mit ihrer persönlichen Stimme zu kommunizieren.
Von Philip Green, der Vorstandsmitglied und Anwalt der gemeinnützigen Organisation Team Gleason ist, wurden Apples Bestrebungen in einer Presseerklärung gelobt. Er selbst erhielt die ALS-Diagnose und stellte erhebliche Veränderungen in seiner Stimme fest. Die synthetische Stimme auf dem iPhone in einer Viertelstunde zu erzeugen, ist seinen Worten zur Folge außergewöhnlich.
Die zwei neuen Funktionen „Personal Voice“ und „Live Speech“ und weitere Barrierefreiheitsfunktionen sollen später im Jahr veröffentlicht werden.