OpenAI recunoaște că noul său model de inteligență artificială (o1) crește semnificativ riscul de a fi utilizat pentru crearea armelor biologice, radiologice sau nucleare. Experții avertizează că modelul avansat poate servi persoanelor rău intenționate.

OpenAI recunoaște că noul său model de inteligență artificială (o1) crește semnificativ riscul de a fi utilizat pentru crearea armelor biologice, radiologice sau nucleare. Experții avertizează că modelul avansat poate servi persoanelor rău intenționate.


Noul model de inteligență artificială, numit o1, lansat recent de OpenAI, este considerat că prezintă “un risc mediu” în a fi folosit pentru crearea de arme biologice, radiologice sau nucleare, deoarece tehnologia a “îmbunătățit semnificativ” capacitatea experților din domeniu. Este cel mai înalt grad de alertă pe care compania americană îl acordă unui model de-al său.

Potrivit FT, fișa tehnică a o1 (documentul care explică modul său de funcționare) arată că modelul poate asista specialiștii din domeniul CBRN (cei ce se ocupă cu agenții chimici,…

Citeste continuarea pe www.biziday.ro

Urmariti stirile newsflash.ro si pe Google News
Total
0
Shares
Stiri pe aceeasi tema