Marile companii de tehnologie, inclusiv Microsoft, Amazon sau OpenAI, au semnat un acord ce ar trebui să garanteze siguranța inteligenței artificiale. Prevede implementarea unui “buton de urgență” pentru oprirea unui model AI care ar prezenta riscuri.


Reunite la Summitul pentru Siguranța Inteligenței Artificiale de la Seul, companiile s-au înțeles între ele să introducă un sistem global de control pentru a asigura dezvoltarea fără riscuri a celor mai avansate modele de inteligență artificială.

Dezvoltatorii de modele AI au fost de acord să stabilească împreună “liniile roșii”, modul în care vor măsura pericolul, precum și utilizarea într-un mod neadecvat a sistemelor AI. Aceste riscuri includ, dar nu se limitează la, atacuri cibernetice automatizate sau dezvoltarea de arme biologice (având în vedere…

Citeste continuarea pe www.biziday.ro

Urmariti stirile newsflash.ro si pe Google News
Total
0
Shares
Stiri pe aceeasi tema