AI-ի մեծ մոդելները չեն կարողանում հաշվել անգլերեն «strawberry» բառի տառերը

Վերջին լուրերը
AI-ի մեծ մոդելները չեն կարողանում հաշվել անգլերեն «strawberry» բառի տառերը
How2B
How2B-ն մեդիա հարթակ է, որի գլխավոր նպատակն է հեշտացնել բիզնես անելը Հայաստանում:

Չնայած GPT-4o-ի և Claude-ի նման մեծ լեզվական մոդելների (LLM) էսսեներ գրելու և վայրկյաններում հավասարումներ լուծելու տպավորիչ կարողություններին, դրանք դեռ անկատար են:

Վերջին օրինակը, որը դարձել է վիրուսային մեմ, ցույց է տալիս, որ այս ամենագետ թվացող AI-ները չեն կարողանում ճիշտ հաշվել «r» տառերի թիվը անգլերեն «strawberry» բառում, ինչը թարգմանաբար նշանակում է «ելակ»։

Խնդիրը LLM ճարտարագիտության մեջ է, որը հիմնված է տրանսֆորմատորների վրա: Նրանք տեքստը բաժանում են նշանների, որոնք կարող են լինել ամբողջական բառեր, վանկեր կամ տառեր՝ կախված մոդելից:

«LLM-ները հիմնված են տրանսֆորմերների այն ճարտարագիտության, որն ըստ էության չի կարդում տեքստը: Երբ դուք հարցում եք մուտքագրում, այն վերածվում է կոդավորման»,- TechCrunch-ին տված հարցազրույցում բացատրել է արհեստական ​​բանականության հետազոտող և Ալբերտայի համալսարանի դոցենտ Մեթյու Գուզդիալը:

Այսինքն, երբ մոդելը տեսնում է «the» հոդվածը, այն ունի «the» իմաստի միայն մեկ կոդավորում, և նա ոչինչ չգիտի երեք տառերից յուրաքանչյուրի մասին առանձին:

Ամենինչ ավելի է բարդանում, երբ LLM-ն ուսումնասիրում է բազմաթիվ լեզուներ: Օրինակ, նշանների որոշ մեթոդներ կարող են ենթադրել, որ նախադասության մեջ բացատը միշտ նախորդում է նոր բառին, բայց շատ լեզուներ, ինչպիսիք են չինարենը, ճապոներենը, թայերենը, լաոսերենը, կորեերենը, քմերերենը և այլն, չեն օգտագործում բացատներ՝ բառեր առանձնացնելու համար: Google DeepMind-ի ծրագրավորող Յենի Ջունը 2023 թվականի ուսումնասիրության ընթացքում պարզել է, որ որոշ լեզուներ նույն իմաստը փոխանցելու համար պահանջում են 10 անգամ ավելի շատ նշաններ, քան անգլերենը:

Միացե՛ք How2B-ի Տելեգրամյան ալիքին՝ ամենահետաքրքիր հոդվածներն ու նորությունները բաց չթողնելու համար:

Միացե՛ք How2B-ի Տելեգրամյան ալիքին՝ ամենահետաքրքիր հոդվածներն ու նորությունները բաց չթողնելու համար:
Կարդացե՛ք նաև
Կարդացե՛ք նաև
Ամենաընթերցվածները