Historia i wartości Anthropic

Skąd się wziął Anthropic?

Rok 2020. OpenAI wydaje GPT-3 i część zespołu zaczyna mieć wątpliwości – czy ten pośpiech z wypuszczaniem coraz potężniejszych modeli jest bezpieczny?

W 2021 roku Dario Amodei (wcześniej VP of Research w OpenAI) odchodzi razem z siostrą Danielą Amodei i kilkoma innymi badaczami. Zakładają Anthropic z jednym głównym celem: budować potężne AI w sposób bezpieczny.

Kamienie milowe

Rok Wydarzenie
2021 Założenie Anthropic
2023 Claude 1 – pierwsza publiczna wersja
2023 Claude 2 – znaczna poprawa możliwości
2024 Claude 3 (Haiku, Sonnet, Opus) – przełom jakościowy
2024 Claude 3.5 Sonnet – przez długi czas najlepszy model na rynku
2025 Claude 4 – Opus 4 i Sonnet 4

Wartości Anthropic

Anthropic nie jest typową firmą technologiczną nastawioną wyłącznie na zysk. Mają naprawdę inne podejście:

Bezpieczeństwo przede wszystkim – badają ryzyka zanim wypuszczą model, nie po.

Interpretability – pracują nad tym żeby rozumieć co dzieje się w środku modelu. To jak prześwietlenie rentgenem zamiast leczenia objawów.

Uczciwa komunikacja – przyznają się do ograniczeń modeli zamiast je ukrywać.

Czy to PR czy prawdziwe przekonania? Obserwuję Anthropic od początku i moim zdaniem to autentyczne. Widać to w decyzjach produktowych – nie gonią za każdą modą, robią co uważają za właściwe.

Wiesz już co to Claude i skąd pochodzi. Czas na: Porównanie modeli

💬 Komentarze, pytania i uwagi

Masz pytanie, znalazłeś błąd lub chcesz coś dodać? Napisz komentarz poniżej. Do komentowania potrzebne jest konto GitHub.