Google przedstawia trzy nowe modele AI o nazwie Gemma 2, które kładą nacisk na bezpieczeństwo, przejrzystość i dostępność. Model Gemma 2 2B jest zoptymalizowany dla zwykłych komputerów, ShieldGemma chroni przed toksycznymi treściami, a Gemma Scope umożliwia szczegółową analizę działania modeli. Google stara się o demokratyzację AI i budowanie zaufania.
Google angażuje się w walkę o bardziej etyczną i przejrzystą sztuczną inteligencję. W związku z tym wprowadził trzy nowe generatywne modele AI o nazwie Gemma 2, które obiecują wyższe bezpieczeństwo, mniejsze wymagania sprzętowe i płynniejsze działanie.
W przeciwieństwie do modeli Gemini, których Google używa do swoich produktów, seria Gemma jest przeznaczona do swobodniejszego wykorzystania przez deweloperów i badaczy. Podobnie jak Meta ze swoim projektem Llama, Google stara się budować zaufanie i współpracę w dziedzinie AI.
Pierwszą nowością jest model Gemma 2 2B, który jest przeznaczony do generowania i analizy tekstu. Jego największą zaletą jest możliwość uruchomienia nawet na mniej wydajnych urządzeniach, co otwiera drzwi do jego wykorzystania szerokiemu gronu użytkowników. Model jest dostępny za pośrednictwem platform takich jak Vertex AI, Kaggle i Google AI Studio.
Nowy ShieldGemma wprowadza zestaw klasyfikatorów bezpieczeństwa, których celem jest identyfikacja i blokowanie szkodliwych treści, takich jak mowa nienawiści, molestowanie i materiały o charakterze seksualnym. ShieldGemma działa więc krótko mówiąc jako filtr, który kontroluje zarówno dane wejściowe do modelu, jak i jego wyniki.
Ostatnim dodatkiem jest Gemma Scope, narzędzie umożliwiające szczegółową analizę działania modelu Gemma 2. Google opisuje go jako zestaw wyspecjalizowanych sieci neuronowych, które przekształcają kompleksowe informacje przetwarzane przez model w bardziej zrozumiałą formę.
Badacze mogą więc lepiej zrozumieć, jak Gemma 2 identyfikuje wzorce, przetwarza dane i generuje wyniki. Wydanie modeli Gemma 2 następuje krótko po tym, jak amerykański Departament Handlu w swoim raporcie poparł otwarte modele AI.
Umożliwiają one dostęp do generatywnej AI mniejszym firmom, organizacjom non-profit i niezależnym deweloperom. Ponadto, urząd podkreślił potrzebę narzędzi do monitorowania i regulacji tych modeli w celu minimalizacji potencjalnych ryzyk.
Google połączył siły z Kairos Power i planuje zasilać swoje centra danych za pomocą małych modułowych reaktorów. Celem jest zapewnienie 500 MW energii bezemisyjnej do 2030 roku. Ambitny plan stawia jednak przed technicznymi i społecznymi wyzwaniami.
Roboty w szkołach? Spokojnie, nauczyciele nie stracą pracy. Sztuczna inteligencja (AI) wprawdzie zmienia edukację, ale według ekspertów kluczowa pozostaje ludzka kreatywność i krytyczne myślenie. Dowiedz się, jak ChatGPT i inne narzędzia AI mogą pomóc zarówno uczniom, jak i nauczycielom.
Sztuczna inteligencja pisze wiersze, ale boryka się z matematyką. Dlaczego ChatGPT i inni chatboty nie radzą sobie nawet z podstawowymi obliczeniami? Ujawniamy przyczyny matematycznych potknięć AI, od tokenizacji, która rozbija liczby na niezrozumiałe fragmenty, po statystyczne podejście do nauki, które zawodzi w matematyce.
Meta przedstawiła Orion, najnowocześniejsze okulary AR na świecie. Łączą wygląd zwykłych okularów z możliwościami rozszerzonej rzeczywistości. Dzięki holograficznemu wyświetlaczowi i zintegrowanej sztucznej inteligencji otwierają nowe możliwości interakcji z cyfrowym światem. Ponadto umożliwiają prowadzenie wideorozmów bez użycia rąk, wyświetlanie wiadomości i kontekstowych informacji w czasie rzeczywistym.
Czy czujesz, że nieustanne przewijanie cię pochłania? Że niczego innego nie zdążysz zrobić, tylko spędzać czas na telefonie? Nie ma się czego wstydzić, ale trzeba coś z tym zrobić. Pokażemy ci, jak na skuteczny detoks cyfrowy, który pomoże ci na nowo odkryć urok świata offline.
Bezpieczeństwo dzieci w Internecie w dużej mierze zależy od rodziców. Dlatego przygotowaliśmy dla Was kompleksowy przewodnik po ochronie dzieci w sieci. Nauczysz się, jak otwarcie z nimi rozmawiać o zagrożeniach, ustalać granice i chronić ich prywatność.