Typen met je stem? Software die gesproken woorden snel en moeiteloos omzet in geschreven tekst is voor velen onder ons een gemakkelijke uitkomst. Dit is ideaal als je snel berichten wilt versturen, notities wilt maken tijdens een meeting, om mensen met een handicap te helpen of als typen gewoon niet jouw ding is.

Deze slimme apps gebruiken spraakherkenning en machine learning om te toveren met je woorden. Dat klinkt allemaal geweldig, maar het is wel belangrijk om te weten wie er achter de schermen meeluistert, of jouw gegevens veilig zijn en hoe je jezelf kunt beschermen. Vormen spraak-naar-tekst apps een privacyrisico? Dat lees je in dit artikel.

Privacyrisico’s van spraak-naar-tekst apps

Er zijn een aantal speciale applicaties en bots die automatische transcriptie van audio naar tekst bieden. Veel van deze apps zijn ingebouwd in je apparaten of besturingssystemen en worden ook aangeboden door populaire chat- en videobel-apps.

De functies, die gebaseerd zijn op spraakherkenning en algoritmes voor machine learning, kunnen worden geleverd door het bedrijf achter de app of, vooral wanneer efficiëntie en snelheid van essentieel belang zijn, door een externe dienst. Met name het laatste roept vragen op over de privacy van gegevens. Maar hoe zit het met de gegevens die ze verzamelen? Wordt je stem gebruikt om het algoritme te verbeteren? Wordt de opname opgeslagen op servers, en hoe veilig is die opslag eigenlijk?

Ondertussen is handmatige transcriptie, die door mensen wordt uitgevoerd, duidelijk ook niet zonder privacyrisico’s. Dit is met name het geval als de mensen die de audio transcriberen vertrouwelijke informatie over mensen te weten komen en/of als dergelijke informatie wordt gedeeld met derden zonder toestemming van de gebruikers. Facebook (nu Meta) kreeg in 2019 bijvoorbeeld te maken met deze strijd, omdat het honderden aannemers betaalde om audioberichten uit de voicechats van sommige gebruikers op Messenger te transcriberen.

Gegevensverzameling en -opslag

Veel apps van allerlei aard vragen toestemmingen om toegang te krijgen tot verschillende apparaat- of gebruikersgegevens, zoals locatie, contactpersonen, chats in messaging-apps – ongeacht of ze dergelijke toestemmingen nodig hebben voor hun functionaliteit. Het verzamelen van deze informatie vormt een risico als het misbruikt wordt, gedeeld wordt met derden zonder de geïnformeerde toestemming van de gebruiker, of als het niet goed beveiligd is op de servers van het bedrijf dat de informatie opslaat.

Spraak-naar-tekst apps hebben bijvoorbeeld de neiging om audiobestanden te verzamelen die vaak niet alleen de gesproken woorden van één persoon vastleggen, maar mogelijk ook die van hun familieleden, vrienden en collega’s. Uiteindelijk kunnen ze deze informatie op een andere manier opslaan, dit kan hen kwetsbaar maken voor cyberaanvallen of privacyschendingen

Kwaadaardige apps

Als je op zoek bent naar spraak-naar-tekstsoftware, moet je ook uitkijken voor frauduleuze toepassingen of chatbots. Kwaadwillenden volgen ook de laatste trends en gezien hoe populair deze software is geworden, kunnen ze nep-apps lanceren als lokmiddel om slachtoffers te besmetten met malware.

Deze schadelijke apps kunnen een kopie zijn van legitieme applicaties, waardoor het voor gebruikers moeilijk wordt om onderscheid te maken tussen legitieme en kwaadaardige apps. De nep-apps kunnen zeer succesvol zijn in hun kwaadaardige missie als je niet controleert of de app legitiem is of wie erachter zit, laat staan het privacybeleid onderzoekt.

Kwaadwillenden zijn gespot terwijl ze imitaties uitrolden voor populaire hulpprogramma’s zoals bestandsomzetters en -lezers, video-editors en toetsenbord-apps. We hebben zelfs verschillende kwaadaardige apps gezien die beweerden verschillende functionaliteiten te bieden, van PDF- en QR-codelezers tot taalvertalers en fotobewerkers.

Het gevaar van deepfakes

Gestolen audio en tekst kunnen als wapen worden gebruikt voor digitale aanvallen, waaronder die op audio deepfakes die vervolgens kunnen worden ingezet voor social engineering-aanvallen of de verspreiding van nepnieuws.

Het proces omvat over het algemeen twee stappen: het trainen van het machine-learningmodel en het gebruik van het model zelf. In de eerste stap maakt het model gebruik van audiosignaalverwerking en natuurlijke taalverwerkingstechnieken om te leren hoe woorden worden uitgesproken en hoe zinnen zijn opgebouwd. Zodra het model is getraind met voldoende gegevens, zou het in staat zijn om tekst te genereren uit een audiobestand.

Een aanvaller zou het model kunnen gebruiken om gestolen audiobestanden te manipuleren en slachtoffers dingen te laten zeggen die ze nooit gezegd hebben, bijvoorbeeld om ze te chanteren, af te persen of zich voor te doen als hun werkgevers of familieleden. Ze kunnen zich ook voordoen als een publiekelijk  figuur om valse nieuwsberichten te genereren.

Jouw veiligheid is belangrijk

Het is van belang om je eigen veiligheid altijd voorop te zetten. Gebruik onderstaande tips om je beter voor te bereiden op de mogelijke risico’s van spraak-naar-tekst apps.

  1. Gebruik vertrouwde platforms met goede recensies en download deze apps ook alleen uit officiële app-stores.
  2. Lees ook eens de kleine lettertjes en bestudeer het privacybeleid. Let daarbij vooral op of je spraakgegevens worden opgeslagen en gedeeld met derden, wie er toegang toe heeft en of ze worden versleuteld tijdens verzending en opslag. Idealiter zou je geen diensten moeten gebruiken die onnodige gegevens verzamelen of waar de gegevens niet privé zijn.
  3. Vermijd het delen van gevoelige informatie of gevoelige gegevens, zoals wachtwoorden of financiële informatie, via spraak-naar-tekstsoftware.
  4. Houd al je software up-to-date en gebruik ook een betrouwbare beveiligingsoplossing. Dit kan voorkomen dat je slachtoffer wordt van aanvallen waarbij misbruik wordt gemaakt van zwakke plekken in de software.

Wees zuinig op je stem en houd je gevoelige informatie en geheimen privé.