Google przedstawia trzy nowe modele AI o nazwie Gemma 2, które kładą nacisk na bezpieczeństwo, przejrzystość i dostępność. Model Gemma 2 2B jest zoptymalizowany dla zwykłych komputerów, ShieldGemma chroni przed toksycznymi treściami, a Gemma Scope umożliwia szczegółową analizę działania modeli. Google stara się o demokratyzację AI i budowanie zaufania.
Google angażuje się w walkę o bardziej etyczną i przejrzystą sztuczną inteligencję. W związku z tym wprowadził trzy nowe generatywne modele AI o nazwie Gemma 2, które obiecują wyższe bezpieczeństwo, mniejsze wymagania sprzętowe i płynniejsze działanie.
W przeciwieństwie do modeli Gemini, których Google używa do swoich produktów, seria Gemma jest przeznaczona do swobodniejszego wykorzystania przez deweloperów i badaczy. Podobnie jak Meta ze swoim projektem Llama, Google stara się budować zaufanie i współpracę w dziedzinie AI.
Pierwszą nowością jest model Gemma 2 2B, który jest przeznaczony do generowania i analizy tekstu. Jego największą zaletą jest możliwość uruchomienia nawet na mniej wydajnych urządzeniach, co otwiera drzwi do jego wykorzystania szerokiemu gronu użytkowników. Model jest dostępny za pośrednictwem platform takich jak Vertex AI, Kaggle i Google AI Studio.
Nowy ShieldGemma wprowadza zestaw klasyfikatorów bezpieczeństwa, których celem jest identyfikacja i blokowanie szkodliwych treści, takich jak mowa nienawiści, molestowanie i materiały o charakterze seksualnym. ShieldGemma działa więc krótko mówiąc jako filtr, który kontroluje zarówno dane wejściowe do modelu, jak i jego wyniki.
Ostatnim dodatkiem jest Gemma Scope, narzędzie umożliwiające szczegółową analizę działania modelu Gemma 2. Google opisuje go jako zestaw wyspecjalizowanych sieci neuronowych, które przekształcają kompleksowe informacje przetwarzane przez model w bardziej zrozumiałą formę.
Badacze mogą więc lepiej zrozumieć, jak Gemma 2 identyfikuje wzorce, przetwarza dane i generuje wyniki. Wydanie modeli Gemma 2 następuje krótko po tym, jak amerykański Departament Handlu w swoim raporcie poparł otwarte modele AI.
Umożliwiają one dostęp do generatywnej AI mniejszym firmom, organizacjom non-profit i niezależnym deweloperom. Ponadto, urząd podkreślił potrzebę narzędzi do monitorowania i regulacji tych modeli w celu minimalizacji potencjalnych ryzyk.
Sztuczna inteligencja od dawna nie jest już sci-fi i mamy do wyboru od razu kilku sprytnych pomocników. Dwaj z nich, ChatGPT i nowicjusz DeepSeek, obecnie konkurują o sympatię użytkowników. Czym się różnią? I który z nich jest najlepszy?
Code.org Studio to popularne narzędzie online, które oferuje dzieciom (ale także dorosłym) dostęp do zabawnych i interaktywnych lekcji programowania. Dzięki wizualnym poleceniom blokowym mogą łatwo tworzyć animacje, gry i aplikacje, rozwijać myślenie logiczne i wzmocnić kreatywność.
Kodu Game Lab to innowacyjna platforma do nauki programowania, która umożliwia dzieciom tworzenie własnych gier za pomocą wizualnego kodowania blokowego. Przy tym mogą eksperymentować z projektowaniem gier, rozwijać kreatywność i myślenie logiczne.
Projekt Stargate to ambitna inicjatywa mająca na celu stworzenie infrastruktury dla sztucznej inteligencji w USA. Celem jest zainwestowanie 500 miliardów dolarów w ciągu najbliższych czterech lat. Projekt, wspierany przez gigantów takich jak OpenAI, SoftBank i Microsoft, obiecuje tysiące miejsc pracy i gospodarczą dominację USA.
RoboMind to narzędzie edukacyjne, które służy do nauki podstaw programowania za pomocą wirtualnego robota. Wykorzystuje prosty język programowania Robo, który jest odpowiednią opcją dla początkujących. Studenci uczą się dzięki niemu myślenia algorytmicznego poprzez praktyczne zadania, takie jak nawigacja w labiryncie czy manipulacja obiektami.
Sam Altman, CEO OpenAI, ogłosił, że firma już wie, jak stworzyć ogólną sztuczną inteligencję i kieruje się ku rozwojowi superinteligencji. Według jego prognozy może to być rzeczywistością już za kilka lat. Pomimo że obecne systemy AI mają wciąż znaczące braki, Altman wierzy w ich szybkie pokonanie.