Ang OpenAI, isang kumpanya na ngayon ay nangunguna sa larangan ng artificial intelligence, kamakailan inihayag ang paglikha ng isang bagong pangkat na may partikular na gawain ng suriin at pagaanin ang mga potensyal na sakuna na panganib na nauugnay sa pagsulong ng mga teknolohiyang nauugnay sa AI. Itinatampok ng hakbang na ito ang lumalaking kahalagahan ng aktibong pagtugon sa mga hamon at panganib na maaaring idulot ng mga generative na modelo. Malinaw, kung saan hindi sila maayos na sinusubaybayan.
Mga paksa ng artikulong ito:
Pagkilala sa panganib sa pamamagitan ng OpenAI
Habang mabilis na umuunlad ang artificial intelligence, lumalabas ang mga bagong panganib na maaaring magkaroon ng matinding epekto sa isang pandaigdigang saklaw. Para dito, ilalaan ng bagong pangkat ng paghahanda ng OpenAI ang sarili nito upang subaybayan, upang suriin, mahulaan e proteggere laban sa mga potensyal na problemang ito. Kabilang sa mga natukoy na panganib ay: pananakot nuklear, isang tema na nagha-highlight sa pagkaapurahan ng responsableng pagkilos sa larangan ng AI.
Bilang karagdagan sa mga banta ng nuklear, tututuon din ang koponan sa mga panganib na nauugnay sa sangkap kemikal, biyolohikal at radiological, gayundin sa fphenomenon ng self-repplication ng artificial intelligence, o ang kakayahan ng isang artificial intelligence system na kopyahin ang sarili nito nang nagsasarili. Kasama sa iba pang mga lugar na pinagtutuunan ng pansin ang kakayahan ng AI na linlangin ang mga tao at pananakot lahat cybersecurity.
Mga benepisyo at hamon ng advanced AI
Kinikilala ng OpenAI na ang mga frontier AI na modelo, yaong higit sa mga kakayahan ng mga pinaka-advanced na umiiral na mga modelo, ay may potensyal na makinabang sa lahat ng sangkatauhan. At hindi, taliwas sa iniisip mo, angAng artificial intelligence ay wala dito para nakawin ang ating mga trabaho ngunit sa halip, upang likhain ito.
Gayunpaman, na may malaking kapangyarihan, dumarating din ang malaking responsibilidad. Samakatuwid ito ay mahalaga upang bumuo mga patakaran alam ang tungkol sa mga panganib, na nagpapahintulot sa iyo na suriin at subaybayan ang mga modelo ng AI, upang matiyak na ang mga benepisyo ay mas malaki kaysa sa nauugnay na mga panganib.
Basahin din ang: Ang DeepMind ay may solusyon upang maiwasan ang mga panganib sa AI
Ang pamumuno ng bagong pangkat na ito ay ipinagkatiwala Alexander Madry, isang nangungunang figure sa larangan ng machine learning. Kasalukuyang naka-leave mula sa kanya tungkulin ng direktor ng MIT's Center para sa Deployable Machine Learning, Matalino ay mag-uugnay sa mga pagsisikap na bumuo at mapanatili ang isang patakaran sa pagpapaunlad na may kaalaman sa panganib.
Patungo sa isang pandaigdigang priyoridad
Ang CEO ng OpenAI, Sam Altman, hindi na bago sa mga alalahanin tungkol sa mga potensyal na sakuna na panganib ng AI. Iminungkahi niya na ang paggamot sa mga teknolohiya ng AI ay dapat psineseryoso tulad ng sa mga sandatang nuklear, na binibigyang-diin ang pangangailangan para sa isang sama-samang pagsisikap upang mapagaan ang mga panganib sa pagkalipol na nauugnay sa AI. Ang bagong pangkat na ito ay kumakatawan sa isang kongkretong hakbang tungo sa pagsasakatuparan ng pananaw na ito, na itinatampok ang pangako ng OpenAI na mag-ambag sa isang responsableng pamamahala ng Artipisyal na Katalinuhan.