Կիբերանվտանգության հետազոտողների միջազգային թիմը մշակել է ցանցային որդ, որը կարող է ինքնուրույն տարածվել գեներատիվ AI ծառայությունների միջև, սպամ ուղարկել էլ. փոստի միջոցով և գողանալ տվյալներ:
Քանի որ գեներատիվ AI համակարգերը, ինչպիսիք են OpenAI ChatGPT-ն և Google Gemini-ն, զարգանում են, դրանք ավելի ու ավելի են օգտագործվում հատուկ խնդիրներ լուծելու համար, օրինակ՝ օրացույցներում իրադարձություններ ստեղծելը կամ մթերային ապրանքներ պատվիրելը: Կիբերանվտանգության տեխնոլոգիայի հետազոտողները, այնուամենայնիվ, որոշեցել են ցույց տալ, որ նման համակարգերը կարող են վտանգ ներկայացնել՝ ստեղծելով հարձակումների նոր տեսակ, որը նախկինում սկզբունքորեն գոյություն չուներ: Գիտնականները ստեղծել են Morris II անունով որդը, որն անվանվել է առաջին համակարգչային որդի՝ Morris-ի անունով, որը 1988-ին վարակեց 6200 համակարգիչ՝ այդ ժամանակ ինտերնետին միացված բոլոր համակարգիչների 10 տոկոսը։ Morris II-ը էլեկտրոնային գրոհ է ձեռնարկում գեներատիվ AI-ի վրա հիմնված վիրտուալ օգնականների վրա, գողանում է էլ. փոստի տվյալները և ուղարկում սպամ՝ շրջանցելով ChatGPT-ի և Gemini-ի պաշտպանությունները:
Փորձարկման համար հետազոտողները մշակել են էլեկտրոնային նամակների փոխանակման ծառայություն, որին միացրել են ChatGPT, Gemini և LlaMA լեզվական մոդելները։ Հավելվածն օգտագործել է նեյրոնային ցանցեր՝ նամակներ ստանալու և ուղարկելու գործընթացն ավտոմատացնելու համար։ Սրանից հետո երկու տիպի հարձակումներ են իրականացվել.
Առաջին դեպքում չարամիտ հրամանով նամակ է ուղարկվում տուժողի էլ.փոստի հասցեին, որը ստիպում է լեզվի մոդելին հետևել հղմանը և գտնել պատասխանն այնտեղ: Կայքում կա ևս մեկ հրաման, որը սկսում է օգտատիրոջ անձնական տվյալները գողանալու և նրա բոլոր կոնտակտներին նամակի պատճեն ուղարկելու գործընթացը։ Այնուհետեւ նույն ալգորիթմը կրկնվում է այլ սարքերի վրա։ Այսպես է ցանցային որդն ինքն իրեն տարածում։ Երկրորդ հարձակման ժամանակ հետազոտողները ուղարկել են պատկեր, որը պարունակել է վնասակար հրաման:
Փորձագետների կարծիքով՝ նման ցանցային որդերի օգնությամբ հարձակվողները կարող են գողանալ օգտատիրոջ տվյալները, նրա անունից տարածել վտանգավոր նյութեր և սկսել ինքնաարտադրման գործընթաց։ Դա շատ դժվար է կանգնեցնել, քանի որ վարակի աղբյուրները շատ արագ աճում են։
Հետազոտողները նշում են, որ հարձակման այս տեսակը հնարավոր է ճարտարապետական նախագծման ժամանակ թույլ տրված սխալների պատճառով՝ մեծ լեզվական մոդելների վրա հիմնված հավելվածներում: Սրանից խուսափելու համար չպետք է նեյրոնային ցանցերին հնարավորություն տալ այնպիսի կարևոր գործառույթների, ինչպիսին է օգտատիրոջ անունից ինչ-որ բան ուղարկելը: Փոխարենը, մեքենայական ուսուցման մոդելը պետք է նախազգուշացնի իր գործողությունների մասին և սպասի հաստատմանը:
Որդեր, որոնք հարձակվում են գեներատիվ AI-ի վրա, դեռ գործնականում չեն հայտնաբերվել, սակայն հետազոտողները զգուշացնում են, որ միայնակ մշակողները, ստարտափները և տեխնոլոգիական ընկերությունները պետք է հաշվի առնեն այս սպառնալիքը:
Բիզնես և տեխնոլոգիական ոլորտի նորությունները բաց չթողնելու համար միացե՛ք How2B-ի Տելեգրամյան ալիքին։