Interesado ka ba sa kanila MGA ALOK? I-save gamit ang aming mga kupon sa WHATSAPP o telegrama!

Lumilikha ang OpenAI ng team para sa AI 'catastrophic' risks. Iyon ang dahilan kung bakit ito ay nag-aalala sa amin

Ang OpenAI, isang kumpanya na ngayon ay nangunguna sa larangan ng artificial intelligence, kamakailan inihayag ang paglikha ng isang bagong pangkat na may partikular na gawain ng suriin at pagaanin ang mga potensyal na sakuna na panganib na nauugnay sa pagsulong ng mga teknolohiyang nauugnay sa AI. Itinatampok ng hakbang na ito ang lumalaking kahalagahan ng aktibong pagtugon sa mga hamon at panganib na maaaring idulot ng mga generative na modelo. Malinaw, kung saan hindi sila maayos na sinusubaybayan.

Pagkilala sa panganib sa pamamagitan ng OpenAI

Habang mabilis na umuunlad ang artificial intelligence, lumalabas ang mga bagong panganib na maaaring magkaroon ng matinding epekto sa isang pandaigdigang saklaw. Para dito, ilalaan ng bagong pangkat ng paghahanda ng OpenAI ang sarili nito upang subaybayan, upang suriin, mahulaan e proteggere laban sa mga potensyal na problemang ito. Kabilang sa mga natukoy na panganib ay: pananakot nuklear, isang tema na nagha-highlight sa pagkaapurahan ng responsableng pagkilos sa larangan ng AI.

Bilang karagdagan sa mga banta ng nuklear, tututuon din ang koponan sa mga panganib na nauugnay sa sangkap kemikal, biyolohikal at radiological, gayundin sa fphenomenon ng self-repplication ng artificial intelligence, o ang kakayahan ng isang artificial intelligence system na kopyahin ang sarili nito nang nagsasarili. Kasama sa iba pang mga lugar na pinagtutuunan ng pansin ang kakayahan ng AI na linlangin ang mga tao at pananakot lahat cybersecurity.

Mga benepisyo at hamon ng advanced AI

Kinikilala ng OpenAI na ang mga frontier AI na modelo, yaong higit sa mga kakayahan ng mga pinaka-advanced na umiiral na mga modelo, ay may potensyal na makinabang sa lahat ng sangkatauhan. At hindi, taliwas sa iniisip mo, angAng artificial intelligence ay wala dito para nakawin ang ating mga trabaho ngunit sa halip, upang likhain ito.

Gayunpaman, na may malaking kapangyarihan, dumarating din ang malaking responsibilidad. Samakatuwid ito ay mahalaga upang bumuo mga patakaran alam ang tungkol sa mga panganib, na nagpapahintulot sa iyo na suriin at subaybayan ang mga modelo ng AI, upang matiyak na ang mga benepisyo ay mas malaki kaysa sa nauugnay na mga panganib.

Nag-aalok ang openai ng mga reward sa mga nakahanap ng mga bug sa chatgpt

Basahin din ang: Ang DeepMind ay may solusyon upang maiwasan ang mga panganib sa AI

Ang pamumuno ng bagong pangkat na ito ay ipinagkatiwala Alexander Madry, isang nangungunang figure sa larangan ng machine learning. Kasalukuyang naka-leave mula sa kanya tungkulin ng direktor ng MIT's Center para sa Deployable Machine Learning, Matalino ay mag-uugnay sa mga pagsisikap na bumuo at mapanatili ang isang patakaran sa pagpapaunlad na may kaalaman sa panganib.

Patungo sa isang pandaigdigang priyoridad

Ang CEO ng OpenAI, Sam Altman, hindi na bago sa mga alalahanin tungkol sa mga potensyal na sakuna na panganib ng AI. Iminungkahi niya na ang paggamot sa mga teknolohiya ng AI ay dapat psineseryoso tulad ng sa mga sandatang nuklear, na binibigyang-diin ang pangangailangan para sa isang sama-samang pagsisikap upang mapagaan ang mga panganib sa pagkalipol na nauugnay sa AI. Ang bagong pangkat na ito ay kumakatawan sa isang kongkretong hakbang tungo sa pagsasakatuparan ng pananaw na ito, na itinatampok ang pangako ng OpenAI na mag-ambag sa isang responsableng pamamahala ng Artipisyal na Katalinuhan.

Gianluca Cobucci
Gianluca Cobucci

Masigasig tungkol sa code, mga wika at wika, mga interface ng tao-machine. Lahat ng may kinalaman sa teknolohikal na ebolusyon ay interesado sa akin. Sinusubukan kong ipalaganap ang aking pagnanasa nang may sukdulang kalinawan, umaasa sa mga mapagkakatiwalaang mapagkukunan at hindi "lamang ang unang sumama".

sumuskribi
Abisuhan ako
bisita

0 Comments
Mga Paunang puna sa Inline
Tingnan ang lahat ng mga komento
XiaomiToday.it
logo