Curs Intensiv Inteligența Artificială

Atlantykron 2025 - Ziua 1

Viorel Spinu
Viorel Spinu

Despre Atlantykron și acest curs

Atlantykron este o academie de vară unică în România, organizată anual din 1989 pe insula de la Capidava. Timp de 36 de ani, acest eveniment a conectat tinerii cu specialiști din știință, tehnologie, artă și cultură, explorând cele mai îndrăznețe inovații tehnologice și provocările viitorului. (mai multe pe Wikipedia)

Ediția 2025, cu tema "VIITORIUM - Universul de Mâine", se desfășoară în perioada 1-8 august și reunește conferințe, cursuri intensive și workshop-uri dedicate descoperirii potențialului uman și tehnologic.

Acest curs intensiv de Inteligență Artificială face parte din programul Atlantykron 2025 și reprezintă o introducere practică în utilizarea AI-ului pentru creativitate, productivitate și inovare. Cursul se concentrează pe tehnici avansate de interacțiune cu sistemele AI și explorează viitorul colaborării om-mașină.

📝 Înainte să începi - ajută-mă cu ceva!

Cum ți s-a părut prezentarea mea? Ce ți-a plăcut? Ce ar putea fi mai bine?

Feedback aici →

Prezentarea video live

Ce NU este AI

❌ AI nu este o bază de date

Deși pare că îți răspunde la întrebări ca o enciclopedie, LLM-ul nu funcționează ca o bază de date.

Comparație - baza de date vs bucătarul experimentat

Analogia perfectă: Bucătarul vs. Caietul de rețete

Baza de date este ca un caiet cu rețete culinare. Fiecare rețetă (informație) este clar definită, cu ingrediente specifice și pași de urmat. Când vrei să gătești ceva, cauți rețeta specifică și urmezi instrucțiunile pas cu pas.

LLM-ul, pe de altă parte, este mai mult ca un bucătar foarte experimentat. Nu folosește o rețetă specifică dintr-un caiet ca să gătească; în schimb, folosește cunoștințele și experiența acumulată de-a lungul timpului. Un bucătar experimentat își amintește de mii de rețete pe care le-a gătit sau le-a văzut și folosește această cunoaștere pentru a improviza și a produce ceva nou și relevant de fiecare dată când gătește.

❌ AI nu este un overlord conștient

Deși LLM-ul poate genera răspunsuri care par conștiente, el nu posedă conștiință sau emoții proprii.

Robot Terminator cu X roșu peste - Nu este overlord

Dacă au fost momente când ți s-a părut că LLM-ul este conștient de sine, nu ești singur. Chiar și ingineri cu experiență care lucrează direct cu aceste tehnologii au avut perioade în care au fost convinși că AI-ul a devenit conștient de sine. În ultimul an au apărut foarte multe modele opensource, similare cu LLM-urile comerciale. Aceste modele permit analiza în detaliu a modului de funcționare. Și tot ce se vede acolo este doar o mulțime de numere și atât.

Ce ESTE AI

✅ LLM este doar o colecție imensă de numere

Un LLM este o colecție imensă de numere (sute de miliarde de numere, după unele surse - mii de miliarde - adică trilioane - după alte surse), numere care sunt puse într-o anumită structură.

LLM este doar o colecție imensă de numere

Ce se întâmplă când îi ceri ceva

Să luăm un exemplu: utilizatorul îi cere LLM-ului „scrie un email prin care să-l anunț pe șeful că pisica mea are un bebe mic, drept care nu pot veni astăzi la serviciu".

1. Tokenizarea

Cererea este împărțită în tokeni (cuvinte sau părți de cuvinte):

  • "Scrie" → 1423
  • "un" → 56
  • "email" → 9876
  • "prin" → 243
  • "care" → 349
Tokenizarea - transformarea cuvintelor în numere

2. Procesarea prin rețea

Șirul de numere trece prin rețea (operații matematice: înmulțiri, adunări) cu sutele de miliarde de numere care definesc modelul LLM.

Procesarea prin rețea - operații matematice complexe

3. Generarea cuvânt cu cuvânt

După toate calculele, la ieșire apare primul cuvânt: "Stimate". Apoi acest cuvânt se adaugă la cererea inițială și procesul se repetă pentru următorul cuvânt: "domnule".

Generarea cuvânt cu cuvânt - crearea răspunsului

Înțelegi acum de ce LLM-ul îți răspunde incremental, ca și cum un om ar sta să îți scrie un răspuns? Pentru că el asta face. Generează fiecare cuvânt care formează răspunsul, unul după altul. Tehnic nu ar fi posibil să îți dea tot răspunsul din primul moment, pentru că nu îl are.

Și totuși, cum se poate?

Cum se poate ca dintr-o mulțime de operațiuni matematice simple, aplicate una după alta, să iasă limbaj natural, care are sens și mai sună și bine? Ei bine, să explorăm...

Cum funcționează

Este o întrebare dificilă. Să începem cu un exemplu mai simplu ca să înțelegem conceptele de bază.

Un exemplu mai simplu, clasificare de fructe

Să spunem că avem un sistem bazat pe AI capabil să clasifice fructe. Când îi arăți o imagine cu un măr, scoate la ieșire un semnal care indică faptul că se uită la un măr, iar când îi arăți o pară, indică faptul că se uită la o pară.

Diagrama cu mărul și păra - input și output

1. Rețeaua neurală inițială

O rețea neurală este o colecție de numere așezată într-o anumită structură. Vom începe cu un set de numere alese aleator (un set de câteva sute de mii de numere). Este evident că dacă în această fază vom aplica o imagine cu un fruct pe intrare, răspunsul va fi aleator.

Rețeaua neurală inițială - colecție de numere aleatoare

2. Procesul de antrenare

În procesul de antrenare, rețelei i se prezintă multe imagini cu fructe (clasificate în prealabil de către un om) și i se spune în clar ce este fiecare fruct. Acest proces îi permite rețelei să își modifice numerele pe care inițial le-am ales aleator.

Procesul de antrenare - organizarea numerelor prin învățare

3. Spațiul latent

În continuare, vom numi acest set de numere care definește rețeaua spațiul latent al rețelei. În urma procesului de antrenare, rețeaua a reușit să facă o mapare între spațiul real al fructelor și spațiul latent al rețelei (care este un spațiu pur numeric).

Diagrama cu spațiul latent - fructe reale → numere → clasificare

Features (caracteristici)

În cadrul procesului de antrenare, rețeaua capturează caracteristici ale fructelor în spațiul latent. Aceste caracteristici se mai numesc și features. Un exemplu concret de features:

  • Forma - rotund vs. alungit
  • Culoarea - roșu, verde, galben
  • Dimensiunea - mic, mediu, mare

Forma, culoarea, și dimensiunea sunt exemple alese la întâmplare. Nu este obligatoriu ca rețeaua să se uite la acest set de caracteristici. În general, este destul de dificil să spunem ce caracteristici își alege rețeaua să urmărească.

Caracteristicile fructelor - forma, culoarea, dimensiunea

Legătura cu LLM-urile

Revenind la LLM-uri, acestea nu sunt nimic altceva decât rețele neurale. Da, numerele care le definesc sunt organizate în structuri mai complexe, dar nu sunt cu nimic diferite conceptual față de sistemul cu AI prezentat mai sus.

Procesul de antrenare pentru LLM-uri se face exact în același mod. Un mod de a antrena un model de limbaj (LLM înseamnă Large Language Model) este să extragi tot textul din Wikipedia, să îl împarți pe bucăți mici, și apoi să îi prezinți rețelei (LLM-ului) câte o bucată de text din care elimini un cuvânt, cuvânt pe care îi ceri rețelei să îl prezică.

Concluzia

Putem spune că LLM-ul extrage într-un spațiu latent numeric (care nu este nimic altceva decât un set de numere) modul cum oamenii pun cuvinte în propoziții și fraze ca să comunice între ei. Capturează caracteristicile esențiale ale comunicării umane într-un spațiu latent numeric.

Dacă acceptăm că noi, oamenii, capturăm cunoștințe în limbaj, vom accepta că LLM-ul a capturat cunoștințele speciei umane în cele câteva sute de miliarde de numere (în spațiul latent numeric al rețelei).

Spațiul latent al LLM-ului - cunoștințele umane capturate în numere

Spațiul latent - Continentul personalităților

Legat de spațiul latent al rețelei, îți propun să îl vezi mental ca un continent sălbatic, brăzdat de drumuri și locuit de tot felul de populații și animale.

Harta unui continent cu diverse zone și drumuri

Diversitatea spațiului latent

Gândește-te că, în cadrul procesului de antrenare, cel mai probabil rețeaua a văzut tot felul de lucruri:

  • Cele mai dure înjurături scoase de prin colțuri dubioase de internet
  • Discuții între programatori
  • Poezii naive
  • Discuții în jargon
  • Opere literare
  • Lucrări științifice

Putem considera că a văzut discuții între toate profesiile practicate de oameni și a văzut discuții la toate nivelurile de educație. Este ca și cum modelul de limbaj ar avea zeci de milioane de personalități, toate găzduite simultan în spațiul latent al modelului.

Întrebarea cheie

Când îl întrebi ceva pe LLM, cu care personalitate vrei să-ți răspundă?

Ce este prompt-ul?

Un prompt este un set de instrucțiuni pentru rețea care face ca drumul prin rețea să fie în zona în care vrei tu să fie.

Definiția oficială: Un "prompt" reprezintă o instrucțiune sau o întrebare formulată pentru a iniția o reacție sau un răspuns din partea unui sistem automatizat, oferindu-i informațiile și contextul necesare pentru a procesa și răspunde adecvat la cerere.

Definiția neoficială: Un prompt este orice cerere ta către sistemul cu AI. "Dă-mi o listă cu zece cărți bune" este un prompt. Un prompt ineficient, pentru că nu este deloc specific și nu oferă context, dar totuși un prompt.

La nivel de intuiție poți spune că promptul ghidează rețeaua în selecția unei personalități potrivite pentru întrebarea ta.

Promptul ghidează rețeaua în selecția unei personalități

Evoluția AI-ului

Pe măsură ce trece timpul și modelele AI devin mai bune va dispărea probabil complet necesitatea unor prompt-uri elaborate. AI-ul va deveni din ce în ce mai capabil să înțeleagă ce vrei de la el atunci când discuți cu el ca și cu un interlocutor uman.

Tehnici avansate de prompting

În ultimii doi ani au apărut o multitudine de cercetări despre cum să formulezi o cerere către un sistem AI astfel încât să obții cele mai bune rezultate.

Zero-shot Prompting

Cereri directe, fără exemple suplimentare:

Exemplu: "Scrie un email de mulțumire către Popescu pentru că a participat la ședința de ieri"

Cea mai puțin eficientă - oferi puțin, primești puțin. Are sens.

Few-shots Prompting

Oferi 2-4 exemple (nu mai multe, că încurcă!):

Exemplu: "Scrie un email de mulțumire către Popescu pentru că a participat la ședința de ieri. Folosește modul de exprimare din email-urile atașate în continuare:

[exemplu email 1]
[exemplu email 2]
[exemplu email 3]"

Cercetările arată: 2-4 exemple = numărul optim

Self-Consistency

Cum să fii sigur că răspunsul e corect - exact ca cu un coleg uman:

Strategii de verificare:
  • "Ești sigur?" - Nu recomand, se contrazice degeaba
  • Întreabă de mai multe ori - În ferestre separate de browser. Dacă răspunde la fel de 3-4 ori → probabil corect
  • "Explică-mi cum ai gândit" - Dublu beneficiu: AI-ul își poate prinde singur greșeala, tu vezi dacă logica e corectă
  • "Caută pe Google" - Pentru informații actuale
  • Întreabă mai multe AI-uri - LLM-uri diferite (Claude, Gemini, etc.). Răspuns similar = probabil corect

Chain of Thought

Cere AI-ului să gândească pas cu pas:

Exemplu: "Gândește pas cu pas și prezintă integral raționamentul folosit"

Realitate: LLM-urile moderne deja fac asta automat pentru majoritatea problemelor

Generated Knowledge Prompting

Două variante:

  • Varianta 1: "Citește această pagină de pe net" + întrebare
  • Varianta 2: "Generează informații utile despre subiect" → apoi întreabă

Util pentru librării software rare sau informații specifice

Prompt Chaining

Sparge problema în sub-probleme:

Exemplu: Crearea unei povești pentru copii
  1. Pas 1: Descrie personajul → Tobi iepurașul
  2. Pas 2: Creează conflictul → Grădina se usucă
  3. Pas 3: Găsește soluția → Piatra magică furată
  4. Pas 4: Scrie finalul → Aventura de recuperare

Concluzia pragmatică

Nu te gândi mereu "ce tehnică de prompting să aplic acum". Experimentează, joacă-te, și în timp vei vedea că obții rezultate din ce în ce mai bune. În multe situații este suficient să discuți cu AI-ul așa cum ai discuta cu un partener uman, în limbaj natural.

Aplicații practice

Cum "analizează" AI-ul datele tale?

Realitatea

Când îți pare că LLM-ul analizează un Excel, el de fapt scrie cod Python care face munca.

AI-ul NU analizează datele direct → AI-ul SCRIE COD care analizează datele

Procesul real:

  1. Tu: Upload CSV/Excel + cerere ("Analizează vânzările pe trimestre")
  2. LLM: Scrie cod Python/R care citește fișierul, face calculele, generează grafice
  3. Sistemul: Rulează codul și îți arată rezultatele

Vizualizare

Tu: "Fă grafic: vânzări pentru primele 10 produse"

AI scrie: cod matplotlib sau seaborn

Vizualizare date - grafice și diagrame

Export și procesare

Tu: "Extrage primele 20 de produse ca Excel și PDF"

AI scrie: pandas.to_excel() + matplotlib.pyplot.savefig()

Export date - Excel și PDF

Analiză comparativă

Tu: "Care produse au crescut cel mai mult vs anul trecut?"

AI scrie: pandas.merge() + calcule de creștere

Analiză comparativă - creștere produse

Segmentare clienți

Tu: "Cât din vânzări: cumpărători noi vs recurenți?"

AI scrie: groupby() + logică de categorisire

Segmentare clienți - noi vs recurenți

Mapare geografică

Tu: "Arată hartă vânzărilor pe locații"

AI scrie: folium sau plotly pentru hărți

Concluzia

AI-ul nu "vede" datele ca un analist. El e un programator expert care scrie rapid codul de care ai nevoie.

TL;DR

  • • AI nu este o bază de date magică, ci o colecție imensă de numere care învață să imite comunicarea umană.
  • • LLM-urile sunt ca un bucătar experimentat - nu urmează rețete fixe, ci improvizează pe baza experienței.
  • • Generează răspunsurile cuvânt cu cuvânt, prin calcule matematice simple repetate de miliarde de ori.
  • • Prompt-urile bune sunt clare, specifice și oferă context - exact ca atunci când vorbești cu un om.
  • • Agenții AI sunt LLM-uri cu "mâini și picioare" - pot folosi unelte și pot acționa în lumea reală prin MCP.
  • • AI-ul nu "analizează" datele - scrie cod Python care face munca de analiză.
  • • Nu este conștient și nu trebuie să ai încredere oarbă în el pentru decizii importante.

📚 Gata cu Ziua 1?

Continuă cu concepte mai avansate și aplicații practice în Ziua 2!

Mergi la Ziua 2 →

Vrei să discutăm despre AI?

Dacă ai întrebări sau vrei să explorezi cum poate AI-ul să te ajute în proiectele tale, să vorbim.

Dă-mi un semn