Interesado ka ba sa kanila MGA ALOK? I-save gamit ang aming mga kupon sa WHATSAPP o telegrama!

Paano umunlad ang linguistic AI at kung paano kami nakarating sa ChatGPT

Katalinuhan artipisyal Ngayon ito ay nasa labi ng lahat. Alam na natin ngayon kung paano ito gamitin: i-access lang ang internet at gumamit ng mga platform tulad ng ChatGPT, Dall-E at Synthesia. Kaugnay nito, naghahanda kami ng isang kawili-wiling artikulo na nag-uusap tungkol sa 10 mga website na gumagamit ng artificial intelligence upang makagawa ng ibang mga bagay. Ngunit pagkasabi nito, kunin natin ang halimbawa ng pinaka ginagamit na AI. Paano ito ipinanganak at kung paano tayo nakarating sa bersyon na magagamit nating lahat ngayon libre?

Ngayon, marami sa atin ang gumagamit ng ChatGPT ngunit hindi alam ng lahat kung ano ang nasa likod nito at kung paano tayo nakarating doon. Narito ang isang kasaysayan mula 80s hanggang ngayon

Magsimula tayo sa 80s: Mga Paulit-ulit na Neural Network

Ang ChatGPT ay isang bersyon ng GPT-3, isang napakalaking modelo ng wika na binuo ng OpenAI. Ang mga modelo ng wika ay isang uri ng neural network na sinanay sa maraming teksto. Ang mga neural network ay software na inspirasyon ng paraan ng pakikipag-usap ng mga neuron sa utak ng tao sa isa't isa. Dahil ang anumang teksto ay binubuo ng mga pagkakasunud-sunod ng mga titik at salita na may iba't ibang haba, ang mga modelo ng wika ay nangangailangan ng isang uri ng neural network na maaaring magkaroon ng kahulugan sa ganitong uri ng data. Mga paulit-ulit na neural network (Mga Paulit-ulit na Neural Network) na naimbento noong 80s, kaya nilang hawakan ang mga pagkakasunud-sunod ng mga salita, ngunit mabagal sa pagsasanay at maaaring makalimutan ang mga dating natutunang salita sa isang pagkakasunod-sunod. Ang mga LSTM ay maaaring humawak ng mga string ng teksto ng ilang daang salita, ngunit ang kanilang mga kakayahan sa wika ay limitado. Ano ang mga? Acronym para sa "Mahabang panandaliang memorya"O"mahabang panandaliang memorya” ay isang artipisyal na neural network na ginagamit sa mga larangan ng artificial intelligence 

chatgpt sa mga bot ng artificial intelligence

Basahin din ang: Kinukumpirma ng Google ang compatibility ng content na nabuo ng Chatbot at AI

2017: ang taon ng pagbabago ng artificial intelligence kasama ang mga Transformer

Ang pambihirang tagumpay na humantong sa kasalukuyang henerasyon ng malalaking modelo ng wika ay dumating nang imbento ng isang pangkat ng mga mananaliksik ng Google ang Mga transformer, isang uri ng neural network na maaaring sumubaybay kung saan lumilitaw ang bawat salita o parirala sa isang sequence. Mauunawaan mo para sa iyong sarili na ang pinakamalaking problema ng mga LSTM ay nalampasan. Ngunit paano nila ito nagawa? Ang konsepto ng inilapat na linggwistika ay pumapasok sa teknolohiya. Ang kahulugan ng isang salita ay kadalasang nakasalalay sa kahulugan ng iba pang mga salita na nauuna o sumusunod dito. Sinusubaybayan ang mga ito impormasyon sa konteksto, ang mga transformer ay maaaring humawak ng mas mahabang mga string ng teksto at makuha ang kahulugan ng mga salita nang mas tumpak. Halimbawa, ang "hot dog" ay may ibang kahulugan sa mga pangungusap na "Mas gusto ko ang mga hamburger kaysa sa mga hotdog"At"Ang mga hot dog ay pinakamainam na kainin na may mustasa“. Sa esensya, ang impormasyon sa konteksto, na nakukuha ng mga tao at hindi nakukuha ng mga makina, ay nakagawa ng pagkakaiba.

2018-2019: ang mga taon ng pag-unlad ng GPT

Dumating ang unang dalawang pangunahing modelo ng wika ng OpenAI sa loob ng mga buwan ng bawat isa. Nais ng kumpanya na bumuo ng multi-purpose, general-purpose artificial intelligence at naniniwala na ang malalaking modelo ng wika ay isang mahalagang hakbang patungo sa layuning ito. Sa ganitong paraan nagagawa ng software tukuyin ang mga pattern sa data sa iyong sarili, nang hindi sinasabi kung ano ang kanyang pinapanood o binabasa. Maraming nakaraang tagumpay sa machine learning ang umasa sa pinangangasiwaang pag-aaral at naka-annotate na data, ngunit ang manual na pag-label ng data ay mabagal na gawain na naglilimita sa laki ng mga dataset na available para sa pagsasanay. Ito ay ang Ang GPT-2 ay nagdudulot ng pinakamalaking kaguluhan. Sa katunayan, sinabi ng OpenAI na labis silang nag-aalala na maaaring gamitin ng mga tao ang GPT-2.upang makabuo ng mapanlinlang, baluktot o mapang-abusong wika” na hindi maglalabas ng kumpletong modelo. Pero hindi dito nagtapos.

Kung kahanga-hanga ang GPT-2, literal na gumawa ng rebolusyon ang sequel ng OpenAI, GPT-3. Ang kanyang kakayahan sa makabuo ng mga tekstong tulad ng tao ito ay kumakatawan sa isang mahusay na hakbang pasulong. Maaaring sagutin ng GPT-3 ang mga tanong, ibuod ang mga dokumento, bumuo ng mga kuwento sa iba't ibang istilo, magsalin sa pagitan ng English, French, Spanish at Japanese, at marami pang iba. Gayunpaman, hindi pa rin nito mapapalitan ang isang tao dahil kulang ito sa mga pangunahing katangian ng sangkatauhan. Napag-usapan namin ito ng masinsinan ang artikulong ito.

Pinagmulan | MIT

Gianluca Cobucci
Gianluca Cobucci

Masigasig tungkol sa code, mga wika at wika, mga interface ng tao-machine. Lahat ng may kinalaman sa teknolohikal na ebolusyon ay interesado sa akin. Sinusubukan kong ipalaganap ang aking pagnanasa nang may sukdulang kalinawan, umaasa sa mga mapagkakatiwalaang mapagkukunan at hindi "lamang ang unang sumama".

sumuskribi
Abisuhan ako
bisita

0 Comments
Mga Paunang puna sa Inline
Tingnan ang lahat ng mga komento
XiaomiToday.it
logo