Atlantykron este o academie de vară unică în România, organizată anual din 1989 pe insula de la Capidava. Timp de 36 de ani, acest eveniment a conectat tinerii cu specialiști din știință, tehnologie, artă și cultură, explorând cele mai îndrăznețe inovații tehnologice și provocările viitorului. (mai multe pe Wikipedia)
Ediția 2025, cu tema "VIITORIUM - Universul de Mâine", se desfășoară în perioada 1-8 august și reunește conferințe, cursuri intensive și workshop-uri dedicate descoperirii potențialului uman și tehnologic.
Acest curs intensiv de Inteligență Artificială face parte din programul Atlantykron 2025 și reprezintă o introducere practică în utilizarea AI-ului pentru creativitate, productivitate și inovare. Cursul se concentrează pe tehnici avansate de interacțiune cu sistemele AI și explorează viitorul colaborării om-mașină.
Cum ți s-a părut prezentarea mea? Ce ți-a plăcut? Ce ar putea fi mai bine?
Feedback aici →Deși pare că îți răspunde la întrebări ca o enciclopedie, LLM-ul nu funcționează ca o bază de date.
Baza de date este ca un caiet cu rețete culinare. Fiecare rețetă (informație) este clar definită, cu ingrediente specifice și pași de urmat. Când vrei să gătești ceva, cauți rețeta specifică și urmezi instrucțiunile pas cu pas.
LLM-ul, pe de altă parte, este mai mult ca un bucătar foarte experimentat. Nu folosește o rețetă specifică dintr-un caiet ca să gătească; în schimb, folosește cunoștințele și experiența acumulată de-a lungul timpului. Un bucătar experimentat își amintește de mii de rețete pe care le-a gătit sau le-a văzut și folosește această cunoaștere pentru a improviza și a produce ceva nou și relevant de fiecare dată când gătește.
Deși LLM-ul poate genera răspunsuri care par conștiente, el nu posedă conștiință sau emoții proprii.
Dacă au fost momente când ți s-a părut că LLM-ul este conștient de sine, nu ești singur. Chiar și ingineri cu experiență care lucrează direct cu aceste tehnologii au avut perioade în care au fost convinși că AI-ul a devenit conștient de sine. În ultimul an au apărut foarte multe modele opensource, similare cu LLM-urile comerciale. Aceste modele permit analiza în detaliu a modului de funcționare. Și tot ce se vede acolo este doar o mulțime de numere și atât.
Un LLM este o colecție imensă de numere (sute de miliarde de numere, după unele surse - mii de miliarde - adică trilioane - după alte surse), numere care sunt puse într-o anumită structură.
Să luăm un exemplu: utilizatorul îi cere LLM-ului „scrie un email prin care să-l anunț pe șeful că pisica mea are un bebe mic, drept care nu pot veni astăzi la serviciu".
Cererea este împărțită în tokeni (cuvinte sau părți de cuvinte):
Șirul de numere trece prin rețea (operații matematice: înmulțiri, adunări) cu sutele de miliarde de numere care definesc modelul LLM.
După toate calculele, la ieșire apare primul cuvânt: "Stimate". Apoi acest cuvânt se adaugă la cererea inițială și procesul se repetă pentru următorul cuvânt: "domnule".
Înțelegi acum de ce LLM-ul îți răspunde incremental, ca și cum un om ar sta să îți scrie un răspuns? Pentru că el asta face. Generează fiecare cuvânt care formează răspunsul, unul după altul. Tehnic nu ar fi posibil să îți dea tot răspunsul din primul moment, pentru că nu îl are.
Cum se poate ca dintr-o mulțime de operațiuni matematice simple, aplicate una după alta, să iasă limbaj natural, care are sens și mai sună și bine? Ei bine, să explorăm...
Este o întrebare dificilă. Să începem cu un exemplu mai simplu ca să înțelegem conceptele de bază.
Să spunem că avem un sistem bazat pe AI capabil să clasifice fructe. Când îi arăți o imagine cu un măr, scoate la ieșire un semnal care indică faptul că se uită la un măr, iar când îi arăți o pară, indică faptul că se uită la o pară.
O rețea neurală este o colecție de numere așezată într-o anumită structură. Vom începe cu un set de numere alese aleator (un set de câteva sute de mii de numere). Este evident că dacă în această fază vom aplica o imagine cu un fruct pe intrare, răspunsul va fi aleator.
În procesul de antrenare, rețelei i se prezintă multe imagini cu fructe (clasificate în prealabil de către un om) și i se spune în clar ce este fiecare fruct. Acest proces îi permite rețelei să își modifice numerele pe care inițial le-am ales aleator.
În continuare, vom numi acest set de numere care definește rețeaua spațiul latent al rețelei. În urma procesului de antrenare, rețeaua a reușit să facă o mapare între spațiul real al fructelor și spațiul latent al rețelei (care este un spațiu pur numeric).
În cadrul procesului de antrenare, rețeaua capturează caracteristici ale fructelor în spațiul latent. Aceste caracteristici se mai numesc și features. Un exemplu concret de features:
Forma, culoarea, și dimensiunea sunt exemple alese la întâmplare. Nu este obligatoriu ca rețeaua să se uite la acest set de caracteristici. În general, este destul de dificil să spunem ce caracteristici își alege rețeaua să urmărească.
Revenind la LLM-uri, acestea nu sunt nimic altceva decât rețele neurale. Da, numerele care le definesc sunt organizate în structuri mai complexe, dar nu sunt cu nimic diferite conceptual față de sistemul cu AI prezentat mai sus.
Procesul de antrenare pentru LLM-uri se face exact în același mod. Un mod de a antrena un model de limbaj (LLM înseamnă Large Language Model) este să extragi tot textul din Wikipedia, să îl împarți pe bucăți mici, și apoi să îi prezinți rețelei (LLM-ului) câte o bucată de text din care elimini un cuvânt, cuvânt pe care îi ceri rețelei să îl prezică.
Putem spune că LLM-ul extrage într-un spațiu latent numeric (care nu este nimic altceva decât un set de numere) modul cum oamenii pun cuvinte în propoziții și fraze ca să comunice între ei. Capturează caracteristicile esențiale ale comunicării umane într-un spațiu latent numeric.
Dacă acceptăm că noi, oamenii, capturăm cunoștințe în limbaj, vom accepta că LLM-ul a capturat cunoștințele speciei umane în cele câteva sute de miliarde de numere (în spațiul latent numeric al rețelei).
Legat de spațiul latent al rețelei, îți propun să îl vezi mental ca un continent sălbatic, brăzdat de drumuri și locuit de tot felul de populații și animale.
Gândește-te că, în cadrul procesului de antrenare, cel mai probabil rețeaua a văzut tot felul de lucruri:
Putem considera că a văzut discuții între toate profesiile practicate de oameni și a văzut discuții la toate nivelurile de educație. Este ca și cum modelul de limbaj ar avea zeci de milioane de personalități, toate găzduite simultan în spațiul latent al modelului.
Când îl întrebi ceva pe LLM, cu care personalitate vrei să-ți răspundă?
Un prompt este un set de instrucțiuni pentru rețea care face ca drumul prin rețea să fie în zona în care vrei tu să fie.
Definiția oficială: Un "prompt" reprezintă o instrucțiune sau o întrebare formulată pentru a iniția o reacție sau un răspuns din partea unui sistem automatizat, oferindu-i informațiile și contextul necesare pentru a procesa și răspunde adecvat la cerere.
Definiția neoficială: Un prompt este orice cerere ta către sistemul cu AI. "Dă-mi o listă cu zece cărți bune" este un prompt. Un prompt ineficient, pentru că nu este deloc specific și nu oferă context, dar totuși un prompt.
La nivel de intuiție poți spune că promptul ghidează rețeaua în selecția unei personalități potrivite pentru întrebarea ta.
Pe măsură ce trece timpul și modelele AI devin mai bune va dispărea probabil complet necesitatea unor prompt-uri elaborate. AI-ul va deveni din ce în ce mai capabil să înțeleagă ce vrei de la el atunci când discuți cu el ca și cu un interlocutor uman.
În ultimii doi ani au apărut o multitudine de cercetări despre cum să formulezi o cerere către un sistem AI astfel încât să obții cele mai bune rezultate.
Cereri directe, fără exemple suplimentare:
Exemplu: "Scrie un email de mulțumire către Popescu pentru că a participat la ședința de ieri"
Cea mai puțin eficientă - oferi puțin, primești puțin. Are sens.
Oferi 2-4 exemple (nu mai multe, că încurcă!):
Exemplu: "Scrie un email de mulțumire către Popescu pentru că a participat la ședința de ieri. Folosește modul de exprimare din email-urile atașate în continuare:
[exemplu email 1]
[exemplu email 2]
[exemplu email 3]"
Cercetările arată: 2-4 exemple = numărul optim
Cum să fii sigur că răspunsul e corect - exact ca cu un coleg uman:
Cere AI-ului să gândească pas cu pas:
Exemplu: "Gândește pas cu pas și prezintă integral raționamentul folosit"
Realitate: LLM-urile moderne deja fac asta automat pentru majoritatea problemelor
Două variante:
Util pentru librării software rare sau informații specifice
Sparge problema în sub-probleme:
Nu te gândi mereu "ce tehnică de prompting să aplic acum". Experimentează, joacă-te, și în timp vei vedea că obții rezultate din ce în ce mai bune. În multe situații este suficient să discuți cu AI-ul așa cum ai discuta cu un partener uman, în limbaj natural.
Când îți pare că LLM-ul analizează un Excel, el de fapt scrie cod Python care face munca.
AI-ul NU analizează datele direct → AI-ul SCRIE COD care analizează datele
Tu: "Fă grafic: vânzări pentru primele 10 produse"
AI scrie: cod matplotlib sau seaborn
Tu: "Extrage primele 20 de produse ca Excel și PDF"
AI scrie: pandas.to_excel() + matplotlib.pyplot.savefig()
Tu: "Care produse au crescut cel mai mult vs anul trecut?"
AI scrie: pandas.merge() + calcule de creștere
Tu: "Cât din vânzări: cumpărători noi vs recurenți?"
AI scrie: groupby() + logică de categorisire
Tu: "Arată hartă vânzărilor pe locații"
AI scrie: folium sau plotly pentru hărți
AI-ul nu "vede" datele ca un analist. El e un programator expert care scrie rapid codul de care ai nevoie.
Continuă cu concepte mai avansate și aplicații practice în Ziua 2!
Mergi la Ziua 2 →Dacă ai întrebări sau vrei să explorezi cum poate AI-ul să te ajute în proiectele tale, să vorbim.
Dă-mi un semn