Historia i wartości Anthropic
Skąd się wziął Anthropic?
Rok 2020. OpenAI wydaje GPT-3 i część zespołu zaczyna mieć wątpliwości – czy ten pośpiech z wypuszczaniem coraz potężniejszych modeli jest bezpieczny?
W 2021 roku Dario Amodei (wcześniej VP of Research w OpenAI) odchodzi razem z siostrą Danielą Amodei i kilkoma innymi badaczami. Zakładają Anthropic z jednym głównym celem: budować potężne AI w sposób bezpieczny.
Kamienie milowe
| Rok | Wydarzenie |
|---|---|
| 2021 | Założenie Anthropic |
| 2023 | Claude 1 – pierwsza publiczna wersja |
| 2023 | Claude 2 – znaczna poprawa możliwości |
| 2024 | Claude 3 (Haiku, Sonnet, Opus) – przełom jakościowy |
| 2024 | Claude 3.5 Sonnet – przez długi czas najlepszy model na rynku |
| 2025 | Claude 4 – Opus 4 i Sonnet 4 |
Wartości Anthropic
Anthropic nie jest typową firmą technologiczną nastawioną wyłącznie na zysk. Mają naprawdę inne podejście:
Bezpieczeństwo przede wszystkim – badają ryzyka zanim wypuszczą model, nie po.
Interpretability – pracują nad tym żeby rozumieć co dzieje się w środku modelu. To jak prześwietlenie rentgenem zamiast leczenia objawów.
Uczciwa komunikacja – przyznają się do ograniczeń modeli zamiast je ukrywać.
Czy to PR czy prawdziwe przekonania? Obserwuję Anthropic od początku i moim zdaniem to autentyczne. Widać to w decyzjach produktowych – nie gonią za każdą modą, robią co uważają za właściwe.
Wiesz już co to Claude i skąd pochodzi. Czas na: Porównanie modeli