Появата на генеративния изкуствен интелект доведе до значителни промени в различни аспекти на ежедневието ни за сравнително кратък период от време. С разпространението на тази технология обаче компаниите за сигурност на електронната поща отчитат зашеметяващ ръст на фишинг атаките.
След въвеждането на ChatGPT фишинг атаките по имейл са се увеличили значително – с над 10 пъти. Редица дружества съобщават, че тези атаки са се увеличили с цели 1265%.
Освен че създават инструменти с изкуствен интелект като WormGPT, Dark Bart и FraudGPT, които произвеждат зловреден софтуер и се разпространяват в тъмната мрежа, киберпрестъпниците проучват начини за използване на водещия чатбот с изкуствен интелект на OpenAI.
Все по-често киберпрестъпниците използват инструменти като ChatGPT, за да осъществяват схеми, включващи целенасочени имейл измами и опити за фишинг. Тези атаки често подмамват жертвите да кликнат върху измамни връзки и да разкрият информация, като потребителски имена и пароли.
През последното тримесечие на 2022 г. фишинг атаките са се увеличили рязко, като киберпрестъпниците са изпращали приблизително 31 000 измамни имейла дневно. Този скок представлява 967% увеличение на опитите за измами с лични данни.
Интересно е, че 70% от тези фишинг атаки са били извършени чрез текстово базирани компрометиращи бизнес имейли (BEC), докато 39% от атаките, насочени към мобилни устройства, са били SMS съобщения (смишинг). Извършителите са използвали инструменти като ChatGPT, за да създават фишинг съобщения, с които да подведат потребителите да разкрият чувствителна информация.
При фишинг атаките киберпрестъпниците обикновено изпращат измамни имейли, текстови съобщения или съобщения в социалните мрежи, които изглеждат легитимни.
Подобни методи препращат жертвите до уебсайтове, където те разрешават трансакции от сметките си, което води до финансови загуби.
Справяне със заплахите
Киберпрестъпниците използват генеративен изкуствен интелект, за да осъществяват своите схеми, затова експертите по киберсигурност смятат, че трябва да се използват активно технологиите на изкуствения интелект, за да се борят с тези развиващи се заплахи.
За компаниите е жизненоважно да интегрират ИИ директно в своите рамки за сигурност, за да наблюдават всички комуникационни канали и да неутрализират рисковете последователно.
Въпреки усилията на разработчиците на ИИ като OpenAI, Anthropic и Midjourney да въведат мерки срещу злоупотреба с техните платформи за злонамерени цели, опитните хора продължават да намират начини да заобикалят тези защитни бариери.
Също така изследователите демонстрираха как използването на по-рядко тествани езици може да позволи на хакерите да манипулират ChatGPT, за да предоставят инструкции за престъпни дейности.
За да се справи с тези проблеми, OpenAI се обърна към експерти по киберсигурност, наричани още „Red Teams“, с молба да посочат слабостите в сигурността на нейните системи за изкуствен интелект.









