De nieuwste poging van Google om generatieve AI in onze woonruimtes te integreren, Gemini for Home, genereert krantenkoppen, maar misschien niet het soort dat Google bedoelde. De functie wordt uitgerold als onderdeel van het betaalde Home-abonnement van Google en belooft slimme dagelijkse samenvattingen en gespreksinzichten uit de beelden van je Nest-camera. Vroege rapporten van gebruikers suggereren echter dat het Gemini voor Google Home-systeem vaak voorkomende huishoudelijke gebeurtenissen verkeerd identificeert, en zelfs ten onrechte de aanwezigheid van herten of nepmensen detecteert, wat twijfels over de nauwkeurigheid veroorzaakt.
De nieuwe functie maakt gebruik van het Gemini AI-model om videoclips te verwerken, samenvattingen te genereren en vragen te beantwoorden via een ‘Ask Home’-chatbot. Volgens rapporten kan het basistaken zoals het creëren van automatiseringen goed verwerken. De video-identificatievaardigheid blijkt echter soms onbetrouwbaar, wat leidt tot enkele werkelijk verontrustende meldingen.
Google Gemini for Home identificeert honden ten onrechte als herten, de nauwkeurigheid is twijfelachtig
Zoals opgemerkt door Ars Technica, betreft het een terugkerend probleem dat de AI fictieve gebeurtenissen rapporteert. Eén gebruiker werd gewaarschuwd dat “onverwachts kortstondig een hert de woonkamer binnenkwam.” Op dat moment kijkt de camera gewoon naar een hond. Dit is geen eenmalige fout; het systeem verwart honden en schaduwen vaak met ‘herten’, ‘katten’ of zelfs ‘een persoon’ die door een lege kamer ronddwaalt.

Het probleem is vooral verontrustend wanneer Gemini veiligheidskritieke gebeurtenissen verkeerd labelt. Een waarschuwing dat “Er is een persoon gezien in de familiekamer” kan een echt alarm veroorzaken, alleen kan de gebruiker de feed controleren en absoluut niets vinden. Na een paar valse positieven leren gebruikers snel het systeem te wantrouwen. Deze fouten ondermijnen het hele doel van een beveiligingsmonitoringsysteem.
Google schrijft deze fouten toe aan de aard van grote taalmodellen. Het bedrijf legt uit dat Gemini ‘inferentiële fouten’ kan maken als het ontbreekt aan voldoende visuele details of gezond verstand op basisniveau. Sterker nog, de AI is naar verluidt uitstekend in het herkennen van automodellen en logo’s. Het worstelt echter met de eenvoudige, noodzakelijke context die een menselijke waarnemer nooit zou missen.
De kwestie van de gereedheid voor de lancering
Wil het beveiligingsmonitoringsysteem echt nuttig zijn, dan moeten deze gevolgtrekkingsfouten aanzienlijk afnemen. Google “investeert zwaar in het verbeteren van nauwkeurige identificatie” en moedigt gebruikers aan om het model te corrigeren door middel van feedback. Maar voorlopig blijft het kernprobleem bestaan.

Het is verrassend dat Google ervoor heeft gekozen een premiumfunctie te lanceren die zoveel ‘handvasthouden’ vereist om out-of-the-box correct te functioneren. Gemini for Home is een nieuw product en zal waarschijnlijk aanzienlijk verbeteren. Het bedrijf moet meer gegevens verzamelen en het model verfijnen. Het vrijgeven van een beveiligingsfunctie die meteen bij de lancering effectief schreeuwt om indringers, riskeert het vertrouwen van de gebruiker te ondermijnen en maakt het moeilijk om de Advanced-abonnementskosten van $ 20 per maand te rechtvaardigen. Gebruikers vinden het abonnement van $ 10 per maand, dat minder videogeschiedenis biedt maar de onbetrouwbare AI-functies vermijdt, voorlopig een veel slimmere gok.
Het bericht Google Gemini voor Home AI labelt huisdieren als herten verscheen voor het eerst op Android Headlines.