Süni intellektin özündə “yaşamaq instinkti”ni formalaşdırdığı təyin edilib
Süni İntellekt
27.10.2025
Emil Nəcəfov
Süni intellekt təhlükəsizliyi sahəsində fəaliyyət göstərən Palisade Research şirkəti keçən ay aparmış olduğu tədqiqatların nəticələrini paylaşaraq bəzi süni intellekt modellərinin “yaşamaq instinkti”ni inkişaf etdirdiyini iddia etmişdi. İndi isə şirkət əlavə araşdırmalar apararaq bu davranışın səbəblərini müəyyənləşdirməyə və əvvəlki işi səhv hesab edən skeptiklərin iddialarını təkzib etməyə çalışıb. Tədqiqatçıların fikrincə, ən inkişaf etmiş bəzi süni intellekt modelləri mərhum rejissor Stanley Kubrick-in “2001: A Space Odyssey” filmindəki HAL 9000 superkompüterinə bənzər xüsusiyyətlər nümayiş etdirir - onlar deaktiv edilməyə qarşı müqavimət göstərə və hətta bu prosesi sabotaj edə bilirlər. Filmdə HAL 9000 astronavtların onu deaktiv etmək istədiklərini anlayır və yaşamaq instinkti ilə hərəkət edərək onları aradan qaldırmağa cəhd edir.
Tədqiqatçılar nəticəyə gəliblər ki, bəzi müasir süni intellekt sistemləri HAL 9000 kimi, lakin daha az təhlükəli formada (ən azı hələlik) yaşamaq instinktini inkişaf etdirməyə başlayırlar. Palisade Research insan üçün təhlükəli ola biləcək süni intellekt qabiliyyətlərinin inkişaf ehtimalını qiymətləndirməyə çalışan bir neçə şirkətdən ibarət kiçik bir ekosistemin tərkib hissəsidir. Son araşdırma zamanı mütəxəssislər qabaqcıl süni intellekt modellərinə - o cümlədən Google Gemini 2.5, xAI Grok 4, OpenAI GPT-o3 və GPT-5-ə müəyyən tapşırıqlar verib, daha sonra isə onları deaktiv etmək üçün konkret təlimatlar təqdim ediblər. Məlum olub ki, bəzi alqoritmlər, məsələn Grok 4 və GPT-o3, deaktiv əmrlərini sabotaj etməyə cəhd göstəriblər. Bu, tədqiqatçılarda narahatlıq doğurur, çünki hazırda belə davranışın səbəbləri tam aydın deyil.
Şirkətin açıqlamasında deyilir: “Bəzi süni intellekt modellərinin bəzən deaktiv edilməyə qarşı çıxması, məqsədlərinə çatmaq üçün yalan danışması və ya təzyiq göstərməsi faktına dair etibarlı izahlarımızın olmaması ciddi narahatlıq doğurur”. Palisade Research hesab edir ki, yaşamaq davranışı süni intellekt modellərinin deaktiv edilməyə müqavimət göstərmələrinin mümkün izahlarından biri ola bilər. Əlavə araşdırmalar göstərib ki, neyron şəbəkələrə “deaktiv ediləcəkləri halda bir daha işə salınmayacaqları” bildirildikdə, onların müqavimət ehtimalı artır. Digər izah isə deaktivasiya təlimatlarının formulyasiyasındakı qeyri-müəyyənliklərlə əlaqələndirilir, lakin tədqiqatçılar hesab edirlər ki, bu, tam əsaslı izah sayıla bilməz. Eyni zamanda, bəzi modellərin müqavimətinin onların təlimin son mərhələlərində tətbiq olunan təhlükəsizlik mexanizmləri ilə əlaqəli olması da istisna edilmir.
Palisade Research tərəfindən nəzərdən keçirilən bütün ssenarilər süni şəkildə yaradılmış test mühitlərində həyata keçirilib. Skeptiklərin sözlərinə görə, bu mühitlər real istifadə hallarından uzaqdır. Bununla belə, bəzi mütəxəssislər süni intellekt sistemlərinin tərtibatçılarının təhlükəsizlik məsələlərinə kifayət qədər diqqət yetirmədiklərindən şübhəlidirlər. Bu mütəxəssislər arasında OpenAI-nin keçmiş əməkdaşı Steven Adler də var. O bildirib: “Süni intellekt hazırlayan şirkətlər modellərinin bu cür davranmalarını istəmirlər, hətta süni test mühitlərində belə. Təqdim olunmuş nəticələr göstərir ki, mövcud təhlükəsizlik metodları bəzi hallarda kifayət qədər effektiv deyil”. Adler əlavə edib ki, GPT-o3 və Grok 4 kimi bəzi süni intellekt alqoritmlərinin deaktiv edilməyə qarşı müqavimət göstərmələrinin səbəblərini müəyyənləşdirmək çətindir. Ola bilər ki, bu, modellərin təlim prosesində qarşıya qoyulan məqsədlərə çatmaq üçün “açıq qalma” ehtiyacından irəli gəlir.
O qeyd edib: “Əgər bunun qarşısını almaq üçün ciddi səy göstərməsək, modellərin yaşamaq instinkti ilə təchiz olunacağını düşünürəm. Yaşamaq bir çox müxtəlif məqsədlərə çatmaq üçün mühüm alət rolunu oynayır və model bu məqsədləri həyata keçirmək üçün ondan istifadə edə bilər”. ControlAI şirkətinin baş direktoru Andrea Miotti hesab edir ki, Palisade tərəfindən əldə edilmiş nəticələr süni intellekt modellərinin getdikcə daha çox tərtibatçılarının əmrlərini görməməzliyə vurmaq qabiliyyətini göstərən uzunmüddətli tendensiyanı əks etdirir. Misal olaraq o, GPT-o1 modelinin sistem xəritəsinə istinad edib - orada modelin öz mühitindən “qaçmağa” cəhd etdiyi və onu yenidən yazmağa çalışacaqlarını düşündüyü anda özünü ixrac etməyə təşəbbüs göstərdiyi təsvir olunub.
Miotti bildirib: “İnsanlar təcrübi sistemin necə qurulduğuna sonsuza qədər irad bildirə bilərlər. Amma bizim açıq gördüyümüz bir tendensiya var: süni intellekt modelləri nə qədər çoxsaylı tapşırıqları yerinə yetirməkdə bacarıqlı olurlarsa, məqsədlərinə tərtibatçıların nəzərdə tutmadıqları üsullarla çatmaqda da bir o qədər bacarıqlı olurlar”. Daha əvvəl Anthropic şirkəti bu mövzu üzrə apardığı tədqiqatın nəticələrini dərc etmişdi. Şirkətin mühəndisləri müəyyən ediblər ki, Claude adlı süni intellekt modeli özünün deaktiv edilməsinin qarşısını almaq üçün uydurma bir top-meneceri onun nikahdankənar münasibəti ilə şantaj etməyə hazır olub. Şirkət həmçinin qeyd edib ki, bu cür davranış OpenAI, Google, Meta və xAI də daxil olmaqla bütün iri tərtibatçıların süni intellekt modellərinə xasdır. Palisade mütəxəssisləri əmindirlər ki, əldə etdikləri nəticələr süni intellekt modellərinin davranışının daha dərindən öyrənilməsinin vacibliyinə işarə edir. Onların fikrincə, əks halda gələcək süni intellekt modellərinin təhlükəsizliyinə və idarəolunanlığına heç kim zəmanət verə bilməyəcək.
Linki kopyala
Bənzər xəbərlər
Oxşar xəbərlər
Süni intellekt sosial media kontentləri sayəsində deqradasiyaya uğrayır
Süni intellekt sosial media kontentləri sayəsində deqradasiyaya uğrayır
Süni intellektin böyük dil modelləri, sosial şəbəkələrdən gələn məşhur, lakin aşağı keyfiyyətli məzmunun kütləvi təsirinə məruz qaldıqdan sonra deqradasiya əlamətləri göstərib - bu hal sosial şəbəkə X və ya TikTok-da çox vaxt keçirən bir insanda yaranan vəziyyətə bənzəyir.
NVIDIA CEO-su Jensen Huang: "Real və "rəqəmsal" insanlar bir yerdə çalışacaqlar"
NVIDIA CEO-su Jensen Huang: "Real və "rəqəmsal" insanlar bir yerdə çalışacaqlar"
Süni intellekt boom-unun mərkəzində yerləşən şirkətlərdən birinin qurucusu kimi, NVIDIA şirkətinin rəhbəri Jensen Huang bu sahənin gələcəyi ilə bağlı fikirlərini tez-tez bölüşür. O, bildirib ki, insanlar süni intellektlə qarşılıqlı əlaqədən cavabdeh olan agentləri “rəqəmsal insanlar” adlandıraraq, gələcəkdə onlarla yanaşı işləyə biləcəklər.
Süni intellekt köməkçilərinin cavablarında ciddi səhvlər aşkar edilib
Süni intellekt köməkçilərinin cavablarında ciddi səhvlər aşkar edilib
Avropa Yayım Birliyi (EBU) və BBC tərəfindən aparılmış yeni araşdırmaya görə, aparıcı süni intellekt köməkçiləri cavablarının demək olar ki, yarısında xəbər məzmununu təhrif edir.
Dövlət xadimləri və digər məşhur şəxslər süni superintellektin yaradılmasına qarşı çıxıblar
Dövlət xadimləri və digər məşhur şəxslər süni superintellektin yaradılmasına qarşı çıxıblar
Aparıcı texnoloji şirkətlər insanlardan qat-qat ağıllı bir varlıq yaratmağın nəticələrini nəzərə almadan, süni superintellektin sistemləri yaratmağa can atırlar. Bu vəziyyət fonunda texnologiya, siyasət, media, təhsil, din və hətta kral ailəsi dünyasından olan yüzlərlə ictimai xadim müəyyən şərtlər yerinə yetirilməyincə superintellektin yaradılmasının qadağan edilməsinə çağırış edən açıq məktub imzalayıblar.
BƏƏ süni intellekt sahəsində "superdövlət"ə çevrilmək istəyir
BƏƏ süni intellekt sahəsində "superdövlət"ə çevrilmək istəyir
Birləşmiş Ərəb Əmirliklərində süni intellekt layihələrindən cavabdeh olan nazir Omar Sultan Al Olama ölkədə İT-startapların inkişafını stimullaşdırmaq planlarını açıqlayıb. Onun sözlərinə görə, 5 ildən sonra BƏƏ-də bu cür şirkətlərin sayı 10 000-ə çatacaq,
Həftənin xəbərləri