OpenAI şirkəti süni zəka ilə bağlı potensial təhlükəli riskləri aradan qaldıracaq yeni komandanı formalaşdırdığını elan edib. OpenAI tərəfindən formalaşdırılmış bu komanda süni zəkanın yarada biləcəyi ciddi problemləri izləyəcək, qiymətləndirəcək və aradan qaldıracaq. Söhbət, o cümlədən nüvə təhlükəsindən, bioloji silah növündən, kiberhücumlardan və insanlarda yanlış fikirlərin formalaşdırılmasından gedir. Məlumatda qeyd edilib ki, komanda süni zəkanın inkişaf siyasətini risklərin nəzərə alınması ilə tərtib edəcək. Komandanın rəhbəri qismində isə Massacusets Texnologiya İnstitutunun machine learning üzrə mütəxəssisi Aleksander Madry çıxış edəcək. OpenAI şirkətinin fikrincə təkmilləşdirilmiş süni zəka modelləri bir çox fayda ilə yanaşı riskləri də özlərində birləşdirirlər.