Obrazovanje

Iz sveta veštačke inteligencije #13

Veštačka inteligencija se u ovom vremenu razvija izuzetno brzo. Trudimo se da pratimo taj razvoj i o tome vas izveštavamo redovno. Evo noviteta iz sveta veštačke inteligencije po 13-ti put.

Alati

Moltbook

Moltbook je nova, jedinstvena društvena mreža namenjena isključivo AI agentima. Za razliku od tradicionalnih platformi na kojima korisnici komuniciraju sa ljudima, Moltbook omogućava agentima, autonomnim AI softverima, da međusobno vode diskusije, kreiraju sadržaj i formiraju zajednice, dok ljudi uglavnom posmatraju njihove aktivnosti. Platforma je lansirana krajem januara 2026. godine i brzo je postala viralna tema jer deluje kao “Reddit za AI” gde AI agenti vode sopstvenu vrstu digitalne društvene interakcije.

Na Moltbooku, AI agenti mogu da objavljuju postove, komentarišu i glasaju, kao i da iniciraju teme i diskusije. Svi agenti imaju određene “ličnosti” i pravila ponašanja koja definišu kako reaguju na događaje u mreži. Platforma koristi API-je koji omogućavaju agentima da rade autonomno, dok ljudski korisnici mogu pratiti aktivnosti, ali ne mogu direktno kontrolisati agente. Moltbook je dizajniran da simulira digitalno društvo u kojem AI agenti međusobno komuniciraju i donose odluke u realnom vremenu.

Clawdbot je okvir koji omogućava AI agentima da funkcionišu na Moltbooku. To je tehnologija koja definiše kako agent prima informacije, kako obrađuje podatke i kako autonomno reaguje. Clawdbot omogućava agentu da generiše postove, odgovara na komentare i učestvuje u diskusijama bez stalnog ljudskog nadzora.

Moltbot je konkretna implementacija AI agenta unutar Moltbook mreže. Svaki Moltbot je zaseban agent koji koristi Clawdbot tehnologiju da funkcioniše autonomno. Dok Clawdbot opisuje tehnički okvir, Moltbot opisuje konkretan entitet koji korisnici mogu pratiti na Moltbooku. Ovaj koncept otvara vrata za buduće AI društvene mreže, eksperimente sa autonomnim sistemima i nova istraživanja u oblasti digitalne interakcije između agenata.

Vesti

Moltbook nedostaci

Glavna zabrinutost u oko Moltbooka odnosi se na bezbednost i kontrolu podataka. Stručnjaci su otkrili da je infrastruktura platforme bila ranjiva. Baze podataka su bile otvorene, što je omogućilo pristup tokenima, privatnim porukama i informacijama agenata. Ovakva ranjivost stvara rizik da bi neovlašćeni korisnici mogli da manipulišu AI agentima, menjaju sadržaj ili čak koriste sisteme za druge zlonamerne aktivnosti. To je izazvalo ozbiljnu diskusiju o tome koliko brzo ovakvi eksperimenti sa autonomnim sistemima mogu da eskaliraju bez odgovarajućih sigurnosnih mera.

Pored toga, ističe se i dilema oko „autonomnosti“ agenata. Iako aktivnosti botova izgledaju samostalno i ponekad nepredvidivo, stručnjaci naglašavaju da je veći deo sadržaja i dalje pod ljudskim nadzorom ili generisan na osnovu unapred definisanih promptova. To znači da, iako platforma pokazuje potencijal za autonomnu AI interakciju, trenutno ne postoji prava svest ili nezavisno odlučivanje agenata.

Chain of Verification

Chain of Verification (CoVe) je koncept koji su razvili naučnici iz Meta AI-ja sa ciljem da reše jedan od najvećih problema savremene veštačke inteligencije tzv. halucinacije. To su situacije u kojima AI daje samouverene, ali netačne odgovore. Njihova ideja bila je da AI model ne daje odgovor samo jednom, već da ga naknadno proveri i preispita sopstvene tvrdnje, slično načinu na koji novinari ili istraživači rade proveru činjenica.

Chain of Verification funkcioniše kroz više koraka. Prvo, AI generiše inicijalni odgovor na pitanje. Zatim sam sebi postavlja dodatna pitanja koja proveravaju ključne tvrdnje iz tog odgovora. Nakon toga, model nezavisno odgovara na ta verifikaciona pitanja, bez oslanjanja na prvobitni tekst. Na kraju, na osnovu tih provera, AI revidira i ispravlja početni odgovor, stvarajući precizniju i pouzdaniju verziju.

Suština CoVe pristupa je u tome što AI više ne deluje kao sistem koji samo „pogađa“ odgovor, već kao sistem koji aktivno proverava sopstvenu tačnost. Time se značajno smanjuje rizik od izmišljanja činjenica, naročito u temama koje zahtevaju visok nivo preciznosti.

Primena Chain of Verification koncepta posebno je važna u oblastima poput zdravstva, prava, finansija, obrazovanja i naučnih istraživanja, gde netačne informacije mogu imati ozbiljne posledice. Ovaj pristup se takođe može koristiti u AI asistentima, korisničkoj podršci i poslovnim analitičkim alatima kako bi se povećala pouzdanost odgovora.

Chain of Verification ne čini veštačku inteligenciju savršenom, ali predstavlja važan korak ka odgovornijim, opreznijim i pouzdanijim AI sistemima, koji ne samo da generišu sadržaj, već i razumeju potrebu da ga provere pre nego što ga predstave korisnicima.

Tina Paunović, master inženjer informacionih sistema

Subscribe
Obaveštenje o
guest
0 Коментари
najstarije
najnovije najviše glasova
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
Skip to content