Acasă / AI / Google DeepMind, Microsoft și xAI permit evaluarea AI de către guvernul SUA

Google DeepMind, Microsoft și xAI permit evaluarea AI de către guvernul SUA

Google DeepMind, Microsoft și xAI au anunțat că noile modele de inteligență artificială vor fi evaluate de guvernul SUA înainte de a fi lansate. Această inițiativă vizează asigurarea siguranței naționale în contextul dezvoltării rapide a tehnologiilor AI.

7 mai 2026 la 08:09
Google DeepMind, Microsoft și xAI permit evaluarea AI de către guvernul SUA
Timp estimat de citire: 0 minute

Pe scurt

  • Google DeepMind, Microsoft și xAI permit evaluarea modelelor AI de către guvernul SUA.
  • Inițiativa este coordonată de Centrul pentru Standardizare și Inovație în Inteligența Artificială (CAISI).
  • CAISI a realizat până acum 40 de evaluări ale modelelor AI.
  • Microsoft a menționat că testele de siguranță națională necesită colaborarea cu guvernele.

Într-o mișcare semnificativă, Google DeepMind, Microsoft și xAI au decis să colaboreze cu guvernul Statelor Unite pentru a permite evaluarea noilor modele de inteligență artificială înainte ca acestea să fie disponibile utilizatorilor. Această decizie vine ca răspuns la preocupările legate de securitatea națională, mai ales după ce oficialii au început să manifeste îngrijorări cu privire la capabilitățile de atac cibernetic ale modelului Mythos, dezvoltat de Anthropic.

Centrul pentru Standardizare și Inovație în Inteligența Artificială (CAISI), parte a Departamentului Comerțului, va colabora cu companiile de tehnologie pentru a evalua și cerceta modelele AI înainte de lansare. Chris Fall, directorul CAISI, a subliniat importanța unei măsurări independente și riguroase pentru a înțelege impactul acestor tehnologii asupra securității naționale.

Ce evaluări a realizat CAISI?

CAISI a început evaluarea modelelor dezvoltate de OpenAI și Anthropic în 2024, realizând până acum 40 de evaluări. Aceste evaluări sunt esențiale pentru a identifica riscurile potențiale asociate cu utilizarea acestor tehnologii avansate. De asemenea, CAISI a remarcat că dezvoltatorii predau frecvent versiuni ale modelului fără măsuri de siguranță, ceea ce le permite să investigheze riscurile pentru securitatea națională.

Ce a declarat Microsoft despre aceste evaluări?

Microsoft a confirmat că, deși efectuează teste de inteligență artificială în mod regulat, evaluările legate de securitatea națională necesită colaborarea cu autoritățile guvernamentale. Într-un blog post, compania a explicat că aceste teste sunt esențiale pentru a aborda riscurile de securitate publică de mari dimensiuni. De asemenea, Microsoft a menționat că a încheiat un acord similar cu AI Security Institute din Marea Britanie, care se concentrează pe dezvoltarea în siguranță a tehnologiilor AI.

Ce implicații are această colaborare pentru viitor?

Conform informațiilor din The New York Times, președintele Trump ar putea emite un decret prezidențial pentru a reuni liderii din tehnologie și oficialii guvernamentali în scopul supravegherii noilor modele de inteligență artificială. Aceasta sugerează că evaluările de securitate vor deveni o parte din procesul standard de dezvoltare a tehnologiilor AI, ceea ce ar putea influența semnificativ modul în care sunt reglementate aceste inovații în viitor.

Colaborarea dintre sectorul privat și guvern este esențială pentru a asigura că tehnologiile emergente sunt dezvoltate și implementate în mod responsabil, minimizând riscurile potențiale pentru securitatea națională.

Întrebări frecvente

Ce este CAISI?

CAISI este Centrul pentru Standardizare și Inovație în Inteligența Artificială, parte a Departamentului Comerțului din SUA.

Câte evaluări a realizat CAISI?

CAISI a realizat până acum 40 de evaluări ale modelelor de inteligență artificială.

Ce rol are Microsoft în acest proces?

Microsoft colaborează cu guvernul pentru a evalua modelele AI în ceea ce privește siguranța națională.

Ce preocupări există cu privire la modelele AI?

Există îngrijorări legate de capabilitățile de atac cibernetic ale unor modele avansate, cum ar fi Mythos de la Anthropic.

Despre acest articol

Sursă originală: webrazzi.com

Acest articol a fost redactat de redacția TechnoLife pe baza informațiilor din sursa citată, cu asistența unor instrumente AI pentru traducere și structurare. Conținutul este verificat editorial înainte de publicare. Pentru orice corecție factuală, ne poți contacta prin pagina de Contact.

Distribuie:

AI Sesli Okuma

Citire naturală cu voce AI Google WaveNet

Premium

Știri similare

Comentarii

Scrie un comentariu