Cikkünk frissítése óta eltelt 11 hónap, a szövegben szereplő információk a megjelenéskor pontosak voltak, de mára elavulhattak.

A fejlesztés egyszerre ismeri fel a szövegeket, képeket, videókat és a hangokat is. 

A Gemini a Google Research munkatársai fejlesztették ki. Az alapoktól kezdve úgy épült fel, hogy multimodális legyen, ami azt jelenti, hogy képes általánosítani és zökkenőmentesen megérteni, működtetni és kombinálni a különböző típusú információkat, beleértve a szövegeket, kódokat, hangokat, képeket és videókat. Ezenkívül képes hatékonyan futtatni az adatközpontoktól a mobil eszközökig mindent. 

A legmodernebb újítások jelentősen javítják a fejlesztők és a vállalati ügyfelek számára a mesterséges intelligenciával való építkezést.

A legnagyobb újítás az eddigi modellekhez képest az, hogy a Geminit úgy tervezték, hogy natívan multimodális legyen, és már a kezdetektől fogva különböző modalitásokra legyen betanítva. A Gemini 1.0-t úgy „képezték ki", hogy egyszerre ismerje fel és értse a szöveget, a képeket, a hangot és másokat is, így jobban megértse az árnyalt információkat, és képes legyen megválaszolni a bonyolult témákkal kapcsolatos kérdéseket. Ezáltal különösen jól használható az olyan összetett tantárgyak érvelésének magyarázatára, mint a matematika és a fizika.Itt egy kis ismertetető:

A Gemini első verziója képes megérteni, elmagyarázni és kódot generálni a világ legnépszerűbb programozási nyelvein, például Python, Java, C++ és Go nyelven. Az a képessége, hogy nyelveken átívelően képes dolgozni és komplex információkról érvelni, a világ egyik vezető kódolási alapmodelljévé teszi. A Gemini a fejlettebb kódolási rendszerek motorjaként is használható.