Under 2024 har AI-assistenter som Googles Gemini och OpenAIs GPT-4 tagit stora steg framåt. De kan nu analysera flera typer av input samtidigt – text, bilder och ljud. Det betyder att du kan ställa frågor både muntligt och skriftligt, eller visa en bild, och AI ger dig ett snabbt och samlat svar. Detta gör AI mycket mer flexibel och användbar i vardagen, oavsett om du organiserar arbetet eller söker information. Dessutom öppnar denna teknik för nya sätt att interagera med AI, särskilt för dem som vill kombinera flera typer av data på ett och samma ställe.
Källa: Deep Learning AI
Klicka här för att läsa magasinet digitalt.