Վերջին տարվա ընթացքում գեներատիվ AI-ն ավելի ու ավելի տարածված է դարձել, և շատ ընկերություններ սկսել են ակտիվորեն ինտեգրել այն իրենց արտադրանքներում:
Միաժամանակ, հաքերները նաև սովորել են օգտագործել այս համակարգերը՝ ֆիշինգ նամակներ, դիփֆեյքերի և այլ խարդախ գործողություններ ստեղծելու համար: AI-ի մշակումների մեծ մասն ընդհանրապես խոցելի է դարձել:
Պարզվում է, որ նույնիսկ ամենահայտնի համակարգերը անհավանականորեն հեշտ է կոտրել՝ շրջանցելով անվտանգության նախազգուշական միջոցները և համոզել նրանց անել այն, ինչ չպետք է անեին, օրինակ՝ ռումբ պատրաստելու հրահանգներ գրել:
Գեներատիվ արհեստական ինտելեկտի խոցելիությունը բացահայտելու համար մշակողները դիմել են հաքերային համայնքին: Օգոստոսին Լաս Վեգասում տեղի է ունեցել DEFCON ամենամյա համաժողովը, որի շրջանակում կազմակերպվել է Generative Red Team Challenge միջոցառումը։
Համաժողովի մասնակիցները հնարավորություն են ստացել փորձարկել գեներատիվ AI-ի խոցելիությունը և դրա համար մրցանակներ ստանալ:
Թե ինչ խոցելիություններ են հայտնաբերվել DEFCON-ում, կհաղորդվի միայն փետրվարին: Սա մշակողների ժամանակ է տալիս լուծելու խնդիրները, նախքան բոլորին տեղեկացնելը, որ դրանք կան, և ըստ տարբեր զեկույցների՝ շատ բան կա ուղղելու:
Միջոցառմանը մասնակցել է շուրջ 2200 հաքեր։ Կոնֆերանսը ներկայացրել է AI-ի կոտրման հետ կապված տարբեր առաջադրանքներ, որոնց կատարման համար մասնակիցներին տրվել է 50 րոպե։ Արդյունքում լավագույն չորս մասնակիցները որպես մրցանակ ստացել են NVIDIA RTX A6000 գրաֆիկական պրոցեսոր (GPU):
Միացե՛ք How2B-ի Տելեգրամյան ալիքին՝ ամենահետաքրքիր հոդվածներն ու նորությունները բաց չթողնելու համար: