Boty zaczynają „śnić”. Nie o owcach, o własnej pracy

konto.spidersweb.pl 1 godzina temu

Agenci AI od Anthropic mają stać się bardziej samodzielni. Firma uruchomiła funkcję „śnienia”, która pozwala modelom analizować historię własnej pracy i aktualizować pamięć bez udziału człowieka.

Anthropic rozwija swoje narzędzia do tworzenia agentów AI i nadaje im kolejne cechy przypominające ludzkie zachowania. Firma właśnie nową funkcję o nazwie „dreaming” („śnienie”), która ma pozwolić agentom analizować wcześniejsze działania, wyciągać wnioski z popełnionych błędów i ulepszać własną pamięć roboczą.

Dzięki funkcji „śnienia” boty Anthropic będą popełniać mniej błędów i szybciej uczyć się nowych schematów

Informacje o nowości pojawiły się na oficjalnym blogu Anthropic. Firma wyjaśnia, iż „dreaming” działa jako zaplanowany proces uruchamiany pomiędzy sesjami pracy agentów. System przegląda zapisane interakcje, wyszukuje powtarzające się schematy oraz reorganizuje pamięć tak, aby zachować najważniejsze informacje i ograniczyć liczbę błędów przy kolejnych zadaniach.

Anthropic tłumaczy, iż mechanizm ma pomagać szczególnie przy długoterminowych projektach oraz środowiskach, w których współpracuje wiele agentów jednocześnie. Według firmy pojedynczy agent nie zawsze potrafi zauważyć szersze wzorce działania, takie jak regularnie powtarzające się pomyłki czy preferencje wspólne dla całego zespołu. „Dreaming” ma agregować takie dane i wykorzystywać je do dalszej optymalizacji działania modeli.

Nowość została dodana do usługi Claude Managed Agents, zaprezentowanej przez Anthropic w kwietniu. Platforma pozwala deweloperom budować i wdrażać agentów AI bez konieczności samodzielnego tworzenia całego zaplecza technicznego. Firma przekonuje, iż rozwiązanie przyspiesza wdrażanie agentów choćby dziesięciokrotnie.

Claude może i śni, ale Anthropic świadomie wprowadza kolejne nowości

Równocześnie Anthropic rozszerzył także inne funkcje swojej platformy. Jedna z nich, nazwana „outcomes”, pozwala definiować zestaw kryteriów sukcesu, według których osobny moduł ocenia odpowiedzi generowane przez agenta. jeżeli wynik nie spełnia wymagań, system wskazuje błędy i zleca ponowne wykonanie zadania. Firma twierdzi, iż takie podejście poprawiło skuteczność agentów choćby o 10 punktów procentowych w testach wewnętrznych.

Kolejna funkcja dotyczy orkiestracji wielu agentów jednocześnie. Główny agent może dzielić duże zadanie na mniejsze części i przekazywać je wyspecjalizowanym podagentom korzystającym z różnych modeli, promptów i narzędzi. Anthropic wskazuje, iż takie rozwiązanie sprawdza się między innymi przy analizie logów, dokumentów prawnych czy tworzeniu treści.

Według informacji podanych przez Business Insider, rozwój podobnych mechanizmów ma pomóc Anthropic rozszerzyć zastosowania agentów AI poza programowanie i wejść mocniej do sektorów finansowych oraz prawnych. Firma liczy, iż systemy zdolne do zapamiętywania wcześniejszych działań i samodzielnego poprawiania jakości pracy staną się bardziej wartościowe dla klientów biznesowych.

Nazewnictwo nowej funkcji zwróciło uwagę części branżowych mediów. Serwis ZDNet zauważył, iż Anthropic od dłuższego czasu stosuje wobec swoich modeli określenia kojarzące się z ludzkimi cechami i zachowaniami. Podczas prezentacji na konferencji Code with Claude firma mówiła o zakończonych procesach analizy jako o „ukończonych snach”.

Funkcja „dreaming” jest w tej chwili dostępna jedynie w formie research preview. Deweloperzy zainteresowani testami muszą złożyć osobny wniosek o dostęp do narzędzia.

BuyboxFast
Idź do oryginalnego materiału