- AI Buzz
- Posts
- AI przewiduje mutacje DNA
AI przewiduje mutacje DNA
ORAZ: Meta otwiera laboratorium “Superinteligencji” | 🤯 Wizja ogólnej sztucznej inteligencji według Sama Altmana - CEO OpenAI |


Cześć!
Jeszcze niedawno pisaliśmy, że AI i mutacje DNA to przyszłość i potencjalne niebezpieczeństwo. Okazuje się, że to już teraźniejszość dzięki zespołowi Google…
Anthropic wygrywa decydującą sprawę o użytek AI - decyzja na którą czekała cała barnża.
O tym i o wielu innych oczywiście poniżej :)
Zapraszamy!
💊 W dzisiejszej pigułce:
🧬 AlphaGenome od DeepMind do analizy DNA
🤖 Narzędzie AI Dnia
📚 Anthropic odnosi zwycięstwo w sprawie o "dozwolony użytek" AI
🥷 Meta “kradnie” 3 researcherów z OpenAI
🚀 Google wypuszcza Gemma 3n
📷 Zdjęcie dnia wygenerowane przez AI
Czas czytania: 3 minuty
DZISIEJSZE NEWSY

Google DeepMind właśnie wydał AlphaGenome, nowy model AI, który przewiduje wpływ mutacji DNA na tysiące procesów molekularnych poprzez analizę sekwencji o długości do 1 miliona par zasad.
Szczegóły:
Model odczytuje fragmenty DNA 100 razy dłuższe niż starsze narzędzia, przewidując zachowanie pobliskich genów i funkcjonowanie innych regionów regulatorowych.
To wydanie łączy tysiące przewidywań molekularnych w jedno narzędzie, jednocześnie przewyższając większość wyspecjalizowanych modeli w różnych testach genomicznych.
Naukowcy przetestowali je na pacjentach z białaczką, pomagając zidentyfikować, jak konkretne mutacje aktywowały geny wywołujące nowotwory, które powinny pozostać nieaktywne.
DeepMind wytrenował cały system w zaledwie cztery godziny, korzystając z publicznych baz danych genetycznych i zużywając połowę mocy obliczeniowej swojego poprzedniego modelu DNA.
Dlaczego to ważne: AlphaGenome przenosi złożone badania biologiczne z laboratorium do komputera, pozwalając naukowcom testować hipotezy genetyczne na niespotykaną dotąd skalę. Choć nie jest kryształową kulą dla zdrowia osobistego, daje badaczom potężne pierwsze przybliżenie, dramatycznie przyspieszając poszukiwanie mutacji i wariantów wywołujących choroby.
Sprawdź tutaj → tutaj
🔨 Przewodnik AI
Higgsfield.ai - przełomowy model w generowaniu zdjęć (wyglądają naprawdę jak realne!)
Poznaj Higgsfield AI przełomowe narzędzie, które z tekstu tworzy realistyczne zdjęcia każdego rodzaju w kilka sekund.
Nie potrzebujesz aparatu ani studia - wystarczy pomysł i krótki opis.
Idealne do tworzenia unikalnych zdjęć w konkretnych krajobrazach, content’u do social mediów, czy nawet kampanii marketingowych marek odzieżowych.
KONIECZNIE SPRWDŹCIE PONIEWAŻ JEST TO PRAWDZIWY PRZEŁOM W GENEROWANIU ZDJĘĆ Z TEKSTU.


Reuters
Sędzia federalny właśnie orzekł, że trenowanie AI przez Anthropic na legalnie zakupionych książkach kwalifikuje się jako dozwolony użytek, ale odrzucił obronę dotyczącą 7 milionów pirackich kopii w cyfrowej bibliotece firmy w pozwie zbiorowym złożonym przez grupę autorów.
Szczegóły:
Sędzia nazwał trenowanie AI "spektakularnie" transformacyjnym, porównując Claude do aspirujących pisarzy uczących się od uznanych autorów, zamiast ich kopiowania.
Autorzy nie zdołali wykazać, że Claude może generować wyniki przypominające ich oryginalne dzieła, co osłabiło główne zarzuty o szkodliwej konkurencji.
Dokumenty sądowe ujawniły, że Anthropic legalnie wydał "wiele milionów" na zakup książek drukowanych, skanując je na pliki cyfrowe do użytku w trenowaniu AI.
Jednak Anthropic pobrał także miliony książek ze stron pirackich, przechowując je na stałe, co według sądu naruszało prawa autorów.
Firma stanie przed sądem w grudniu za umyślne naruszenie praw do pirackich dzieł, z potencjalnymi odszkodowaniami mogącymi sięgać 543 977,40 zł (150 000 dolarów) za książkę.
Dlaczego to ważne: Laboratoria AI otrzymują zielone światło do trenowania na legalnie pozyskanych danych, co może stanowić jeden z pierwszych precedensów dla niezliczonych spraw obecnie toczących się przeciwko firmom technologicznym. Jednak biorąc pod uwagę brak jasności co do tego, ile materiałów chronionych prawem autorskim trafia do danych treningowych, to wciąż tylko jedna bitwa w tym, co wygląda na bardzo długą wojnę prawną.
Czytaj więcej → tutaj

Meta z powodzeniem pozyskała czterech badaczy z OpenAI do swojego nowego zespołu ds. superinteligencji - w tym trzech z biura w Zurychu oraz jednego z głównych twórców modelu rozumowania „o1”.
Szczegóły:
Mark Zuckerberg osobiście przekonał do przejścia Lucasa Beyera, Alexandra Kolesnikova i Xiaohuę Zhaia - trójkę, która w zeszłym roku założyła oddział OpenAI w Zurychu.
Do Mety dołączył także Trapit Bansal, jeden z kluczowych współtwórców modelu „o1”, który wcześniej pracował bezpośrednio z współzałożycielem OpenAI, Ilyą Sutskeverem.
Sam Altman stwierdził w zeszłym tygodniu, że Meta oferowała premie sięgające 100 milionów dolarów, próbując przeciągnąć do siebie pracowników, ale jak podkreślił - „żaden z najlepszych ludzi OpenAI” nie skorzystał z tych propozycji.
Lucas Beyer potwierdził na platformie X, że zespół z Zurychu rzeczywiście przechodzi do Mety, ale zdementował doniesienia o gigantycznych premiach, nazywając je „fake newsami”.
Ofensywa kadrowa Mety to część szerszej strategii - wcześniej firma zainwestowała 15 miliardów dolarów w Scale AI i ściągnęła do siebie jej CEO, Alexandra Wanga, który pokieruje nowym działem.
Dlaczego to ważne:
Meta coraz wyraźniej zaznacza swoją obecność w wyścigu o rozwój superinteligencji. Mimo zapewnień Altmana, przynajmniej czterech jego dotychczasowych współpracowników zdecydowało się przejść do konkurencji. Dzięki imponującym transferom z czołowych laboratoriów i gotowości do wydawania ogromnych pieniędzy, pierwsze efekty pracy nowego zespołu Mety mogą okazać się naprawdę przełomowe.
Czytaj więcej → tutaj

Google zaprezentowało pełną wersję Gemma 3n – nowej rodziny otwartych modeli sztucznej inteligencji (w wariantach 2B i 4B), stworzonych z myślą o dostarczaniu zaawansowanych funkcji multimodalnych na urządzenia mobilne i sprzęt konsumencki.
Co warto wiedzieć:
Nowe modele potrafią natywnie rozpoznawać i przetwarzać obrazy, dźwięk, wideo oraz tekst, a przy tym są na tyle lekkie, że działają na urządzeniach zaledwie z 2 GB pamięci RAM.
Wbudowane funkcje analizy obrazu pozwalają na przetwarzanie wideo w 60 klatkach na sekundę na smartfonach Pixel – umożliwiając rozpoznawanie obiektów i analizę sceny w czasie rzeczywistym.
Funkcje audio Gemmy pozwalają na tłumaczenie w 35 językach oraz konwersję mowy na tekst – przydatne m.in. w aplikacjach dostępnościowych i asystentach głosowych.
Większy wariant modelu – Gemma E4B – jako pierwszy model z mniej niż 10 miliardami parametrów przekroczył wynik 1300 punktów w prestiżowym teście LMArena.
Dlaczego to istotne:
Pełne wydanie Gemmy to kolejny imponujący krok ze strony Google. Nowe modele stają się coraz potężniejsze, jednocześnie zmniejszając swoje rozmiary – dzięki czemu idealnie sprawdzają się na urządzeniach konsumenckich. Otwarty, niewielki model otwiera ogromne możliwości inteligentnych zastosowań bezpośrednio na urządzeniach użytkowników.
Czytaj więcej - > Tutaj
ZDJĘCIE AI DNIA (WYGENEROWANE PRZEZ 🤖)
Miasto z papieru



Do zobaczenia za tydzień!
PS Jeśli uważasz, że ktoś z Twoich znajomych też powinien dostawać takie maile - wyślij mu link → aibuzz.pl | Dzięki!
PS2 Jeśli uważasz, że AI Buzz powinien pokazać się w twojej społeczności, napisz na [email protected] aby porozmawiać o współpracy