Användningen av personliga AI-assistenter, som ChatGPT och Google Gemini, har exploderat, men många känner kanske inte till hur de data som matas in i tjänsterna används för att träna upp leverantörernas AI-modeller.
Signal-grundaren släpper krypterat alternativ till ChatGPT
AI AI-assistenten Confer använder inte användarens konversationer för att träna upp grundmodellen eller för att visa riktade annonser.

Någonting är fel
Läs vidare – starta din prenumeration
Nu har Moxie Marlinspike, som var med och grundade meddelandetjänsten Signal för tolv år sedan, presenterat en ny AI-assistent som kallas Confer och som är helt utformad för att säkra användarens personliga integritet. Det innebär att ingen del av konversationen används för att träna tillverkarens grundlägande AI-modell, eller att konversationen tillåts ligga till grund för riktade annonser.
OpenAI, som ligger bakom ChatGPT, har redan börjat testa annonser som ett sätt att öka sin lönsamhet och nu misstänker många att det kommer att leda till samma slags datainsamling som Meta och Google redan använder sig av.
Confer är utformad för att se ut precis som de AI-assistenter vi redan är vana vid att använda men bygger, precis som Signal, på öppen källkod. Framförallt är tjänsten byggd på så sätt att leverantören aldrig kan få tillgång till användarens konversationer, vilket nyhetstjänsten Tech crunch rapporterar om. För att uppnå detta krypteras alla meddelanden som skickas till och från systemet.
