OpenAI призна, че инцидент със сигурността, който е разкрил данни от някои от неговите API клиенти След проникване, на което е пострадала Mixpanel, компанията за уеб анализи, която компанията използва за измерване на потребителското взаимодействие на платформата си за разработка, компанията настоява, че атаката не е компрометирала основната ѝ инфраструктура или съдържанието, генерирано от нейните модели за изкуствен интелект.
Технологичната компания е информирала засегнатите потребители, че Обхватът на нарушението е ограничен до идентифицираща и техническа информация.Въпреки че идентификационните данни, информацията за плащане и разговорите с техните модели остават в безопасност, експерти по киберсигурност и защита на данните В Европа експертите предупреждават, че изтичането на информация отваря вратата за по-сложни фишинг кампании и повдига въпроси относно стриктното спазване на Общия регламент относно защитата на данните (GDPR).
Как е възникнала разликата и кого е засегнала
Според предоставения от компанията график, Инцидентът е възникнал на 9 ноември 2025 г.Това се случи, когато Mixpanel засече неоторизиран достъп до някои от своите системи. Няколко дни по-късно, на 25 ноември, доставчикът информира OpenAI кои записи са били компрометирани, което им позволи да определят истинското въздействие и да започнат да уведомяват засегнатите организации.
OpenAI подчертава, че Това не е проникване в собствените им сървъри.а по-скоро върху инфраструктурата на Mixpanel, използвана за събиране на показатели за използването на мрежата platform.openai.comСредата, в която разработчиците и компаниите управляват своите API ключове и наблюдават производителността на модела. С други думи, проблемът се крие в така наречената технологична „верига за доставки“, особено чувствителна точка за всяка облачна услуга.
Компанията ясно разграничава засегнатите профили: Инцидентът е ограничен до потребители на API платформатаТова важи особено за тези, които използват услугите за професионални или корпоративни проекти. Потребителите, които използват само ChatGPT или други потребителски продукти, няма да бъдат засегнати, въпреки че много от тях също са получили имейли с известия от компанията.
Този комуникационен подход, който е накарал OpenAI да информира широко дори акаунти, които не са пряко замесени, се стреми да засили прозрачността. Въпреки това, е породило известно объркване сред тези, които използват само ChatGPT, при получаване на предупреждения, които не винаги показват ясно дали тяхната конкретна информация е сред разкритите данни.
Какви данни са били разкрити
Вътрешни документи и имейли, изпратени до клиенти, подробно описват това Филтрираната информация попада в сферата на анализитеТоест, данни, които Mixpanel е събрал, за да състави статистика за използването на API интерфейса. Въпреки че става въпрос за значителен обем данни, OpenAI настоява, че той е ограничен по отношение на чувствителността си.
Потенциално компрометираните елементи включват името, свързано с API акаунта, и имейл адресът използва се за регистрацията му. Тази комбинация вече позволява свързването на реални самоличности с технически акаунти, нещо особено важно, когато става въпрос за разработчици, работещи от името на европейски компании или публични администрации.
Течът включва също техническа информация за устройството и средата за достъп: операционна система, тип и версия на браузъра, както и препращащият уебсайт (референт), от който е осъществен достъп до платформата. Тези данни, макар и използвани предимно за подобряване на използваемостта и производителността на услугата, могат да бъдат използвани и от нападателите, за да профилират своите цели.
Друг изложен блок от данни засяга вътрешни идентификатори на потребителски или организационни акаунти в екосистемата на OpenAI. Тези идентификатори, използвани за управление на разрешенията и фактуриране, сами по себе си не позволяват достъп до акаунти, но могат да помогнат за картографиране на взаимоотношенията между потребители, екипи и технически проекти.
Що се отнася до локализацията, OpenAI потвърждава, че е била компрометирана. приблизителното местоположение въз основа на информацията, предоставена от браузъраТова обикновено се прави на градско, регионално и национално ниво. Тази комбинация от географски, технически и идентификационни данни дава на нападателите солидна основа за изграждане на кампании за социално инженерство, насочени към конкретни европейски организации, особено в сектори, които въвеждат генеративен изкуствен интелект в голям мащаб.
Какви данни са били спасени от пробива
Един от най-чувствителните аспекти на всеки инцидент от този тип е потенциалното излагане на генерирано от потребителите съдържание. В този случай компанията заявява, че Чатовете, подканите и отговорите не са били компрометирани. Тези взаимодействия бяха изпратени чрез ChatGPT или API. Mixpanel не ги съхраняваше, така че не бяха включени във филтрираните лог файлове.
OpenAI също така заявява, че Не са разкрити пароли, API ключове или данни за вход към услугите. Това е ключово за ограничаване на непосредственото въздействие, тъй като намалява риска от директен достъп до акаунти или проекти за разработка, хоствани на тяхната платформа.
Компанията допълнително уточнява, че Данните за плащане, като например номера на карти или банкова информация, не са засегнати.Нито пък са компрометирани копия на документи за самоличност, използвани за проверки за сигурност. Регистрационните файлове за използване на API, които обикновено включват по-подробна информация за заявки, направени към модели, също не се считат за компрометирани.
От гледна точка на спазването на регулаторните изисквания в Европейския съюз, фактът, че не са изтекли данни от особено чувствителни категории Информация като здравословно състояние, сексуална ориентация, политически убеждения и др. намалява правната тежест на инцидента, въпреки че не го елиминира. Комбинацията от идентификатори, имейли и модели на употреба все още може да бъде много ценна за нападателите, които се стремят да компрометират корпоративни системи.
Във всеки случай, самата компания признава, че въпреки че Няма доказателства за достъп до централните системиПропастта подчертава необходимостта от преглед на начина, по който информацията се споделя и анонимизира с трети страни, аспект, който е от особено значение за европейските регулаторни органи.
Отговорът на OpenAI: скъсване с Mixpanel и засилване на сигурността
След като получи подробния криминалистичен доклад на Mixpanel на 25 ноември, OpenAI реши Незабавно прекъснете всички интеграции от този доставчик от вашите производствени средиКомпанията потвърди, че вече не използва аналитичните си инструменти в нито една от активните си услуги, което означава незабавно прекъсване на канала, през който е станало изтичането.
В допълнение към прекратяването на сътрудничеството, бяха предприети следните мерки: задълбочен преглед на сигурността на цялата си външна верига за доставкиЗаявената цел е да се повиши летвата за техническите и организационните изисквания, на които трябва да отговарят компаниите, с които се споделят клиентски данни, нещо, което е в съответствие с изискванията за проактивна отговорност и надлежна проверка на GDPR в ЕС.
Междувременно екипите по сигурността на компанията са уведомяване директно на засегнатите организации и техните администраторисъс специфични инструкции относно препоръчителните защитни мерки. Съобщенията, изпратени по имейл, включват обобщения на представената информация и напомняния за основни практики за киберсигурност.
Решението да се съобщи за инцидента дори на потребители, които не са били пряко засегнати от изтичането на информация, според компанията, е част от усилията за „максимална прозрачност“. Тази стратегия, въпреки че предизвика известна ненужна тревога сред потребителите на ChatGPT, които не използват API, Това също така предотвратява обвиненията срещу компанията в укриване на информация. във време на интензивен контрол относно използването на данни в индустрията за изкуствен интелект.
Специализираните доклади показват, че сред засегнатите организации може да има големи технологични компании с глобално присъствиеТова засилва значението на управлението на риска в бизнес среди, които интегрират генеративни модели с изкуствен интелект в критични процеси.
Риск от фишинг атаки и атаки чрез социално инженерство
Освен директния достъп до системите, основният проблем сега е, че комбинацията от имена, имейли и контекстуални данни в крайна сметка се хранят с нови фишинг кампании и опити за кражба на самоличност, насочени към компании и разработчици.
С получената информация, нападателят може създавайте много правдоподобни имейли които изглежда произхождат от поддръжка на платформата или свързани услуги, изискващи например проверка на акаунт, актуализации на парола или преглед на предполагаеми промени в политиките за ползване. В европейски контекст, където много организации интегрират OpenAI API в търговски продукти и услуги, потенциалът за вреда е значителен.
Поради тази причина компанията препоръчва на потребителите Отнасяйте се с особено внимание към всички неочаквани съобщения, за които се твърди, че са от OpenAIособено ако включва връзки, прикачени файлове или заявки за чувствителна информация. Компанията напомня на потребителите, че не иска пароли, API ключове или кодове за потвърждение чрез имейл, SMS или чат.
Експерти, консултирани от европейски медии, предполагат, че Организациите трябва да засилят обучението на своите технически и бизнес екипи В отговор на тези заплахи, те интегрират инцидента в своите фишинг тренировки и вътрешни политики за реагиране на подозрителни имейли.
Съветът се отнася и за тези, които управляват проекти с изкуствен интелект в Малки и средни предприятия и стартиращи предприятиякъдето комбинацията от по-малко технически възможности и висока зависимост от външни доставчици може да се превърне в идеална среда за атаки, базирани на напреднало социално инженерство.
Въздействие в Европа и съмнения относно спазването на GDPR
Инцидентът се случва в момент, когато Европейският съюз усъвършенства регулаторната си рамка относно изкуствения интелект и чрез засилване на контрола върху международния трансфер на данни. В този контекст използването на Mixpanel от OpenAI повдигна допълнителни въпроси сред специалистите по защита на данните.
Източници от индустрията посочват, че систематично събиране на имейл адреси и данни за местоположение за аналитични цели Това би могло да противоречи на принципа за минимизиране на данните на GDPR, който изисква ограничаване на количеството лични данни, обработвани за всяка конкретна цел. Основният въпрос е дали цялата засегната информация е била наистина необходима за подобряване на продукта.
Ръководителите на екипи по сигурност в европейски компании за киберсигурност посочват, че въпреки че е обичайно да се използват доставчици на аналитични услугиОрганизациите трябва да вземат допълнителни предпазни мерки за анонимизиране, преди да изпращат данни на трети страни. Според тях всяка разпознаваема част от данните, която напуска непосредствения периметър на компанията, отваря допълнителна точка на излагане, която, както показва този случай, може да бъде използвана от нападателите.
На европейско ниво, обработващите данни са задължени да подписвайте много подробни договори с вашите доставчицикато се уточняват целите, техническите мерки и задълженията за сигурност. Ако разследването заключи, че информацията, предадена на Mixpanel, е надвишила строго необходимото, е възможно органите за защита на данните в държавите членки да започнат надзорни процедури.
Този епизод се случва и в контекст, където внедряването на модели с изкуствен интелект в регулирани сектори – като например финанси, здравеопазване или публична администрация— се ускорява в голяма част от Европа. Организациите, които обмисляха интегрирането на OpenAI API, сега ще трябва да проверят внимателно клаузите за обработка на данни и договорните гаранции, предлагани от доставчика.
Препоръки за потребители и компании, използващи API
В официалните си съобщения компанията набляга на няколко конкретни мерки за намаляване на потенциалното въздействие на теча. Първата е активиране на многофакторно удостоверяване (MFA) във всички акаунти, свързани с API, така че дори ако атакуващ успее да получи идентификационни данни по друг начин, би било много по-трудно за него да получи достъп.
Препоръчва се също Прегледайте подробно списъка с приложения и услуги, които имат достъп до акаунтаТози тип вътрешен одит, както на индивидуално, така и на организационно ниво, позволява откриването на остарели интеграции, токени, които вече не се използват, или прекомерни разрешения, които трябва да бъдат отменени.
За европейските компании и екипи, управляващи проекти с изкуствен интелект, е препоръчително актуализиране на вътрешните политики за сигурност да се включат конкретни препратки към инциденти с доставчици на анализи от трети страни. Това включва преглед на това кой може да създава API ключове, как се съхраняват и какви процедури се следват в отговор на предупреждения за сигурност, като това, за което се съобщава сега.
Друга добра практика включва поддържайте ясен регистър на всички външни доставчици Това картографиране не само помага за осигуряване на съответствие с GDPR, но и улеснява бързото вземане на решения при възникване на инцидент във веригата за доставки. То подробно описва ролите и отговорностите, свързани с обработката на данни, свързана с изкуствен интелект, като очертава каква информация получава всяка страна и при какви предпазни мерки.
Накрая, многобройни специалисти насърчават организациите да се възползват от този епизод, тъй като възможност за укрепване на културата на киберсигурностпрозрачно информиране на екипите, преглед на конфигурациите и документиране на извлечените поуки. В среда, където използването на изкуствен интелект се нормализира, игнорирането на подобни предупреждения на практика оставя вратата открехната за бъдещи атаки.
Случаят с теча от Mixpanel показва до каква степен Доверието в големите доставчици на изкуствен интелект зависи и от силата на техните партньори и как се справят с инциденти. Въпреки че основните системи и разговори са останали непокътнати, разкриването на данни за контакт, технически контекст и местоположение служи като напомняне, че всяко парче от пъзела е от значение, когато става въпрос за защита на поверителността и сигурността на тези, които работят с изкуствен интелект ежедневно.