Новата реалност ChatGPT - крие ли неочаквана заплаха за киберсигурността?
Борис Гончаров, главен стратегически директор на AMATAS


Съдържание от AMATAS

Всяка делнична вечер получавате трите най-четени статии от деня, заедно с още три, препоръчани от редакторите на "Капитал"
Сто милиона потребители за по-малко от два месеца, екзистенциална заплаха за Google, повсеместна дигитална еуфория, примесена със страхове за бъдещото работно място. Очевидно се случва поредната технологична "революция", която ще засегне всичко и всеки. Разбира се, основният виновник за тази вайръл сензация е ChatGPT, генеративният изкуствен интелект на OpenIA, който има потенциала най-накрая да ни даде възможност да си "говорим" човешки с интернет, без това да изглежда като странен лингвистичен експеримент, сътворен от поредния налудничав технологичен гений от Силициевата долина.
След като глобалната аудитория се позабавлява непринудено с възможностите на ChatGPT, някъде сред възклицанията "това отговаря като човек" се появиха и известни тревожни мисли, които някак естествено формираха натрапчивия въпрос: "Това заплаха ли е за сигурността?" Необходимостта от смислен отговор допълнително се подсили от обявения от "Майкрософт" нов Bing, интегриран с ChatGPT, както и от внезапната поява на Bard - прибързания отговор на Google, с което всички осъзнаха, че скоро търсенията в интернет ще се променят завинаги.
С известно усещане за дежавю и пориви за назидателно-поучителни изблици общността на експертите по киберсигурност в спешен порядък стартира с опитите да изясни какви рискове носи със себе си масовото използване на изкуствен интелект, базиран на езиков модел, захранен с около 300 милиарда думи и изрази, систематично извлечени от интернет, включително чувствителна бизнес информация и лични данни.
Съвсем логично и очаквано за такъв вид технология ChatGPT се оказва доста умел в социалното инженерство, най-вече в генерирането на убедително изглеждащи фишинг имейли и чат съобщения. И докато това не звучи като нещо непознато и страшно, следва да се отбележи, че възможността за реалистична динамична интеракция умножава експоненциално възможните източници на атака, преодолявайки с лекота езиковите бариери и липсата на познания за спецификата на изказа.
За да създадат допълнителен съспенс и притеснение за потребителите, експерти по киберсигурност успяха да демонстрират колко лесно може да се генерира зловреден код с използването на ChatGPT, което на пръв поглед изглежда стряскащо, но при малко по-внимателно вникване в WHAT IF сценария става ясно, че това действие само по себе си е една малка част от жизнения цикъл на кибератаката, а и "сериозните" атакуващи далеч не се нуждаят от асистенцията на ChatGPT, за да си свършат работата.
Извън темата как можем да "хакваме" чрез ChatGPT естествено се породи въпросът как той и другите подобни на него чатботове могат да бъдат атакувани, като основното притеснение идва от т.нар. Prompt Injection, или Prompt Hacking атака, която в общи линии представлява въвеждането на подвеждащ или зловреден входящ текст в промпта на съответния ИИ с цел разкриването на информация, която би трябвало да е скрита от потребителя, или провокирането на поведение, което е неочаквано или забранено.
Естествено гласовете на киберсигурността, приканващи всички много да внимават с ChatGPT, са леко закъснели и надали ще променят нещо на този етап, но поне могат да послужат като отправна точка за осмислянето на динамичния характер на киберрисковете и как да се справим с тях. ChatGPT няма да ни каже нищо ново, базисните принципи по отношение на киберсигурността си остават същите.