Google otevírá dveře bezpečnější a srozumitelnější umělé inteligenci s novou řadou modelů Gemma 2. Modely jsou navrženy s důrazem na etiku, transparentnost a dostupnost pro širokou škálu uživatelů. Gemma 2 slibuje revoluci ve vývoji a využití generativní AI, přičemž klade důraz na bezpečnost a zodpovědné nakládání s daty.
Google se pouští do boje za etičtější a transparentnější umělou inteligenci. V souvislosti s tím vydal trojici nových generativních modelů AI s názvem Gemma 2, které slibují vyšší bezpečnost, menší nároky na hardware a plynulejší fungování.
Na rozdíl od modelů Gemini, které Google využívá pro své vlastní produkty, je řada Gemma určena k volnějšímu použití vývojáři a výzkumníky. Podobně jako Meta se svým projektem Llama se i Google snaží o budování důvěry a spolupráce v oblasti AI.
První novinkou je model Gemma 2 2B, který je určen pro generování a analýzu textu. Jeho největší předností je možnost spuštění i na méně výkonných zařízeních. To otevírá dveře k jeho využití široké škále uživatelů. Model je dostupný skrze platformy jako Vertex AI, Kaggle a Google AI Studio.
Nový ShieldGemma představil sadu bezpečnostních klasifikátorů, jejichž úkolem je identifikovat a blokovat škodlivý obsah. Jedná se například o projevy nenávisti, obtěžování a sexuálně explicitní materiály. ShieldGemma tedy ve zkratce funguje jako filtr, který kontroluje jak vstupní data pro model, tak i jeho výstupy.
Posledním přírůstkem je Gemma Scope, nástroj umožňující detailní analýzu fungování modelu Gemma 2. Google ho popisuje jako sadu specializovaných neuronových sítí, které rozbalují komplexní informace zpracovávané modelem do srozumitelnější podoby.
Výzkumníci tak mohou lépe pochopit, jak Gemma 2 identifikuje vzory, zpracovává data a generuje výsledky. Vydání modelů Gemma 2 přichází krátce poté, co americké Ministerstvo obchodu podpořilo ve své zprávě otevřené modely AI.
Ty zpřístupňují generativní AI menším firmám, neziskovým organizacím a nezávislým vývojářům. Kromě toho úřad vyzdvihl potřebu nástrojů pro monitorování a regulaci těchto modelů s cílem minimalizovat potenciální rizika.