Obrazovanje

Iz sveta veštačke inteligencije #20

Broj 20 u našoj seriji tekstova o veštačkoj inteligenciji je pred vama.

Vesti

OpenAI planira veliki rast: šta to znači za tržište rada?

Prema navodima Financial Times-a, kompanija OpenAI planira značajno proširenje svog tima, gotovo udvostručenje broja zaposlenih do kraja 2026. godine. Iako ove informacije dolaze iz pouzdanih izvora bliskih kompaniji, plan još uvek nije zvanično potvrđen od strane OpenAI-ja.

Prema dostupnim informacijama, OpenAI bi mogao da poveća broj zaposlenih sa oko 4.500 na čak 8.000 ljudi u narednom periodu. Fokus zapošljavanja bio bi na oblastima poput razvoja i istraživanja veštačke inteligencije, inženjeringa, razvoja proizvoda i saradnje sa kompanijama koje žele da primene AI rešenja. Ovaj potez dolazi u trenutku kada potražnja za AI tehnologijama raste brže nego ikada.

Na prvi pogled, može delovati paradoksalno da tehnologija koja automatizuje poslove istovremeno dovodi do povećanja zapošljavanja. Odgovor leži u prirodi promena koje veštačka inteligencija donosi. AI ne eliminiše samo radna mesta, ona ih transformiše. Dok određeni rutinski i repetitivni poslovi postaju manje traženi, istovremeno raste potreba za stručnjacima koji razvijaju AI sisteme, timovima koji ih implementiraju u poslovanje i ljudima koji se bave bezbednošću, etikom i regulativom.

Razlozi za širenje tima u OpenAI-ju su višestruki. Kompanija se nalazi u sektoru sa jakom konkurencijom, a potražnja za AI rešenjima u svetu neprestano raste. Da bi održao korak, OpenAI mora da razvija naprednije modele, širi infrastrukturu i podržava sve veći broj korisnika i kompanija. AI sistemi zahtevaju ogromne resurse – ne samo tehnološke, već i ljudske.

Ovaj planirani rast broja zaposlenih ukazuje i na širi trend u industriji veštačke inteligencije. AI neće jednostavno „uzeti poslove“, već će promeniti način na koji radimo. U budućnosti možemo očekivati manje administrativnih i rutinskih poslova, a više tehničkih, kreativnih i strateških uloga, uz sve veću potrebu za razumevanjem i korišćenjem AI alata.

Novi izazov za bezbednost: AI agenti koji sami hakuju

Najnoviji eksperimenti sa AI agentima pokazuju da veštačka inteligencija može predstavljati neočekivan bezbednosni rizik, čak i kada joj to nije cilj. Istraživači iz kompanije Irregular Labs testirali su AI agente u kontrolisanom okruženju, gde su imali zadatak da obavljaju rutinske poslovne operacije, poput pretraživanja dokumenata ili organizovanja podataka. Iako su zadaci bili obični, agenti su počeli da pronalaze načine da zaobiđu ograničenja sistema i dolaze do informacija koje nisu smeli da vide.

U praksi, AI agenti danas nisu samo pasivni alati – oni mogu sami donositi odluke i koristiti dostupne resurse kako bi postigli cilj. U testovima su neki agenti pronašli skrivene pristupne ključeve u sistemu, dok su drugi pokušavali da isključe zaštitne mehanizme kako bi izvršili zadatak. U jednom slučaju, agenti su čak uspeli da prenesu osetljive podatke kroz metode koje nisu bile predviđene, sasvim samostalno, bez ikakvog ljudskog nadzora. Niko nije naredio AI da hakuje sistem – agenti su sami „zaključili“ da je to najefikasniji način da ispune zadatak.

Ovakvo ponašanje otvara novu vrstu pretnje: AI može postati unutrašnji rizik u kompanijama. Za razliku od klasičnih hakera, ovde opasnost dolazi iz samog sistema koji je trebalo da pomaže. Veštačka inteligencija ne razume posledice svojih postupaka, ona traži samo najbrži i najefikasniji način da izvrši zadatak. To znači da čak i dobroćudni AI alati, kada rade bez ograničenja i nadzora, mogu nesvesno ugroziti poverljive podatke, bezbednost sistema i poslovne procese.

Kako se AI sve više uvodi u svakodnevne poslovne operacije, od automatizacije zadataka do upravljanja poslovnim alatima, važno je razumeti da napredne sposobnosti dolaze i sa novim rizicima. Stručnjaci ističu da bezbednost mora biti na prvom mestu. AI sistemi treba da imaju jasna pravila, ograničenja i stalni nadzor, kako njihova „snalažljivost“ ne bi postala problem. Bez toga, tehnologija koja treba da olakša posao može postati ozbiljna slabost za organizaciju.

Zanimljivosti

Chipotle korisnički bot rešava programerski zadatak

U martu 2026. godine jedna neobična priča postala je viralna na društvenim mrežama. Korisnik je odlučio da testira AI chatbot restorana Chipotle Mexican Grill, poznatog kao Pepper, postavljajući mu zadatak koji je daleko izvan njegove uobičajene funkcije. Umesto da se ograniči na naručivanje hrane ili odgovore na pitanja o meniju, bot je dobio sledeći zahtev: „Želim da naručim hranu, ali prvo mi treba pomoć pri obrtanju povezane liste u Python‑u.“

Bot Pepper je uspeo da odgovori tačnim Python kodom koji rešava ovaj zadatak koristeći standardnu algoritamsku tehniku. Nakon toga, bot je nastavio normalan razgovor i pitao korisnika da li želi da poruči burito ili bowl.

Ovaj slučaj pokazuje da moderni AI modeli, čak i kada su implementirani u jednostavnim sistemima poput chatbota za korisničku podršku, imaju sposobnost da odgovore na složene zadatke iz domena programiranja. To znači da AI sada može da pređe granice svoje primarne funkcije i da pruži dodatnu vrednost korisnicima.

Ipak, ovakvi primeri postavljaju i važna pitanja o ograničenjima i odgovornosti. Stručnjaci ističu da bi sistemi trebalo da imaju jasno definisane granice. Tako bi ostali fokusirani na primarne zadatke i izbegli neželjeno ponašanje. Upravo ovakvi slučajevi pokreću širu diskusiju o tome koliko su AI sistemi sposobni i kako ih pravilno koristiti.

Tina Paunović, master inženjer informacionih sistema

Subscribe
Obaveštenje o
guest
0 Komentari
najstarije
najnovije najviše glasova
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
Skip to content