Cum ți s-a părut prezentarea mea? Ce ți-a plăcut? Ce ar putea fi mai bine?
Feedback aici →Deși pare că îți răspunde la întrebări ca o enciclopedie, LLM-ul nu funcționează ca o bază de date.
Baza de date este ca un caiet cu rețete culinare. Fiecare rețetă (informație) este clar definită, cu ingrediente specifice și pași de urmat. Când vrei să gătești ceva, cauți rețeta specifică și urmezi instrucțiunile pas cu pas.
LLM-ul, pe de altă parte, este mai mult ca un bucătar foarte experimentat. Nu folosește o rețetă specifică dintr-un caiet ca să gătească; în schimb, folosește cunoștințele și experiența acumulată de-a lungul timpului. Un bucătar experimentat își amintește de mii de rețete pe care le-a gătit sau le-a văzut și folosește această cunoaștere pentru a improviza și a produce ceva nou și relevant de fiecare dată când gătește.
Deși LLM-ul poate genera răspunsuri care par conștiente, el nu posedă conștiință sau emoții proprii.
Dacă au fost momente când ți s-a părut că LLM-ul este conștient de sine, nu ești singur. Chiar și ingineri cu experiență care lucrează direct cu aceste tehnologii au avut perioade în care au fost convinși că AI-ul a devenit conștient de sine. În ultimul an au apărut foarte multe modele opensource, similare cu LLM-urile comerciale. Aceste modele permit analiza în detaliu a modului de funcționare. Și tot ce se vede acolo este doar o mulțime de numere și atât.
Un LLM este o colecție imensă de numere (sute de miliarde de numere, după unele surse - mii de miliarde - adică trilioane - după alte surse), numere care sunt puse într-o anumită structură.
Să luăm un exemplu: utilizatorul îi cere LLM-ului „scrie un email prin care să-l anunț pe șeful că pisica mea are un bebe mic, drept care nu pot veni astăzi la serviciu".
Cererea este împărțită în tokeni (cuvinte sau părți de cuvinte):
Șirul de numere trece prin rețea (operații matematice: înmulțiri, adunări) cu sutele de miliarde de numere care definesc modelul LLM.
După toate calculele, la ieșire apare primul cuvânt: "Stimate". Apoi acest cuvânt se adaugă la cererea inițială și procesul se repetă pentru următorul cuvânt: "domnule".
Înțelegi acum de ce LLM-ul îți răspunde incremental, ca și cum un om ar sta să îți scrie un răspuns? Pentru că el asta face. Generează fiecare cuvânt care formează răspunsul, unul după altul. Tehnic nu ar fi posibil să îți dea tot răspunsul din primul moment, pentru că nu îl are.
Cum se poate ca dintr-o mulțime de operațiuni matematice simple, aplicate una după alta, să iasă limbaj natural, care are sens și mai sună și bine? Ei bine, să explorăm...
Este o întrebare dificilă. Să începem cu un exemplu mai simplu ca să înțelegem conceptele de bază.
Să spunem că avem un sistem bazat pe AI capabil să clasifice fructe. Când îi arăți o imagine cu un măr, scoate la ieșire un semnal care indică faptul că se uită la un măr, iar când îi arăți o pară, indică faptul că se uită la o pară.
O rețea neurală este o colecție de numere așezată într-o anumită structură. Vom începe cu un set de numere alese aleator (un set de câteva sute de mii de numere). Este evident că dacă în această fază vom aplica o imagine cu un fruct pe intrare, răspunsul va fi aleator.
În procesul de antrenare, rețelei i se prezintă multe imagini cu fructe (clasificate în prealabil de către un om) și i se spune în clar ce este fiecare fruct. Acest proces îi permite rețelei să își modifice numerele pe care inițial le-am ales aleator.
În continuare, vom numi acest set de numere care definește rețeaua spațiul latent al rețelei. În urma procesului de antrenare, rețeaua a reușit să facă o mapare între spațiul real al fructelor și spațiul latent al rețelei (care este un spațiu pur numeric).
În cadrul procesului de antrenare, rețeaua capturează caracteristici ale fructelor în spațiul latent. Aceste caracteristici se mai numesc și features. Un exemplu concret de features:
Forma, culoarea, și dimensiunea sunt exemple alese la întâmplare. Nu este obligatoriu ca rețeaua să se uite la acest set de caracteristici. În general, este destul de dificil să spunem ce caracteristici își alege rețeaua să urmărească.
Revenind la LLM-uri, acestea nu sunt nimic altceva decât rețele neurale. Da, numerele care le definesc sunt organizate în structuri mai complexe, dar nu sunt cu nimic diferite conceptual față de sistemul cu AI prezentat mai sus.
Procesul de antrenare pentru LLM-uri se face exact în același mod. Un mod de a antrena un model de limbaj (LLM înseamnă Large Language Model) este să extragi tot textul din Wikipedia, să îl împarți pe bucăți mici, și apoi să îi prezinți rețelei (LLM-ului) câte o bucată de text din care elimini un cuvânt, cuvânt pe care îi ceri rețelei să îl prezică.
Putem spune că LLM-ul extrage într-un spațiu latent numeric (care nu este nimic altceva decât un set de numere) modul cum oamenii pun cuvinte în propoziții și fraze ca să comunice între ei. Capturează caracteristicile esențiale ale comunicării umane într-un spațiu latent numeric.
Dacă acceptăm că noi, oamenii, capturăm cunoștințe în limbaj, vom accepta că LLM-ul a capturat cunoștințele speciei umane în cele câteva sute de miliarde de numere (în spațiul latent numeric al rețelei).
Legat de spațiul latent al rețelei, îți propun să îl vezi mental ca un continent sălbatic, brăzdat de drumuri și locuit de tot felul de populații și animale.
Gândește-te că, în cadrul procesului de antrenare, cel mai probabil rețeaua a văzut tot felul de lucruri:
Putem considera că a văzut discuții între toate profesiile practicate de oameni și a văzut discuții la toate nivelurile de educație. Este ca și cum modelul de limbaj ar avea zeci de milioane de personalități, toate găzduite simultan în spațiul latent al modelului.
Când îl întrebi ceva pe LLM, cu care personalitate vrei să-ți răspundă?
Un prompt este un set de instrucțiuni pentru rețea care face ca drumul prin rețea să fie în zona în care vrei tu să fie.
Definiția oficială: Un "prompt" reprezintă o instrucțiune sau o întrebare formulată pentru a iniția o reacție sau un răspuns din partea unui sistem automatizat, oferindu-i informațiile și contextul necesare pentru a procesa și răspunde adecvat la cerere.
Definiția neoficială: Un prompt este orice cerere ta către sistemul cu AI. "Dă-mi o listă cu zece cărți bune" este un prompt. Un prompt ineficient, pentru că nu este deloc specific și nu oferă context, dar totuși un prompt.
La nivel de intuiție poți spune că promptul ghidează rețeaua în selecția unei personalități potrivite pentru întrebarea ta.
Pe măsură ce trece timpul și modelele AI devin mai bune va dispărea probabil complet necesitatea unor prompt-uri elaborate. AI-ul va deveni din ce în ce mai capabil să înțeleagă ce vrei de la el atunci când discuți cu el ca și cu un interlocutor uman.
Lucrurile sunt perfect similare cu situația când discuți cu un partener uman.
"Dă-mi o carte bună"
"Sunt interesat de recomandări de cărți de literatură științifico-fantastică pentru adolescenți, în special cele care abordează teme de explorare cosmică și sunt potrivite pentru cititori cu vârste între 13 și 16 ani."
Formulează întrebările cât mai clar și specific posibil. Evită ambiguitățile și specifică exact ce informații sau tip de răspuns cauți. Adaugă context în prompt-uri.
"Aș vrea să știu despre Revoluția Industrială, ce a însemnat aceasta, cum a schimbat lucrurile și în ce fel a afectat societatea, economia și tehnologia."
"Ce este Revoluția Industrială și ce impact a avut asupra societății, economiei și tehnologiei?"
Fii cât mai scurt posibil, păstrând detaliile esențiale. Evită informațiile inutile sau redundante.
"Care e treaba cu dronele?"
"Care sunt reglementările privind utilizarea dronelor în scopuri comerciale în Uniunea Europeană?"
Asigură-te că toate informațiile incluse în prompt sunt strâns legate de subiectul întrebării.
Oferă exemple pentru a ilustra formatul sau stilul de răspuns dorit:
"Scrie un email de mulțumire în stilul de mai jos:
Stimată doamnă Popescu,
Vă mulțumesc pentru întâlnirea de ieri. Apreciez timpul acordat și informațiile valoroase pe care le-ați împărtășit.
Cu stimă, Ion Ionescu"
Include instrucțiuni clare și detaliate:
"Scrie un raport de 200 de cuvinte despre impactul schimbărilor climatice. Raportul trebuie să fie structurat în trei paragrafe: unul despre cauze, unul despre efecte și unul despre soluții propuse. Folosește un ton formal și include date recente."
Nu te aștepta să primești un răspuns perfect din prima. Interacțiunea întotdeauna va fi iterativă: întrebi ceva, primești un răspuns, apoi pui întrebări suplimentare, primești un alt răspuns, și tot așa.
Exemplu de progresie:
Din nou, exact la fel ar decurge discuția și cu un expert uman.
În ultimii doi ani au apărut o multitudine de cercetări despre cum să formulezi o cerere către un sistem AI astfel încât să obții cele mai bune rezultate.
Cereri directe, fără exemple suplimentare:
Exemplu: "Scrie un email de mulțumire către Popescu pentru că a participat la ședința de ieri"
Cea mai puțin eficientă - oferi puțin, primești puțin. Are sens.
Oferi 2-4 exemple (nu mai multe, că încurcă!):
Exemplu: "Scrie un email de mulțumire către Popescu pentru că a participat la ședința de ieri. Folosește modul de exprimare din email-urile atașate în continuare:
[exemplu email 1]
[exemplu email 2]
[exemplu email 3]"
Cercetările arată: 2-4 exemple = numărul optim
Cum să fii sigur că răspunsul e corect - exact ca cu un coleg uman:
Cere AI-ului să gândească pas cu pas:
Exemplu: "Gândește pas cu pas și prezintă integral raționamentul folosit"
Realitate: LLM-urile moderne deja fac asta automat pentru majoritatea problemelor
Două variante:
Util pentru librării software rare sau informații specifice
Sparge problema în sub-probleme:
Nu te gândi mereu "ce tehnică de prompting să aplic acum". Experimentează, joacă-te, și în timp vei vedea că obții rezultate din ce în ce mai bune. În multe situații este suficient să discuți cu AI-ul așa cum ai discuta cu un partener uman, în limbaj natural.
Un agent AI este ca un mini-asistent care înțelege o anumită problemă și are acces la unelte concrete ca să găsească răspunsul. Fiecare agent e construit în jurul unei idei clare: „Vreau să răspund la întrebările despre X." Acel „X" poate fi orice – clienți, rețea, tichete, performanță, trafic, active, vulnerabilități.
Dacă LLM-ul e un generalist, agentul e un profesionist specializat. Știe ce vrea, ce unelte are și cum să le combine. Iar asta schimbă complet jocul.
Să luăm exemplul unui agent care se ocupă de un ASN:
get_recent_traffic(asn)get_route_filters(asn)get_open_tickets(asn)
Toate aceste unelte sunt oferite prin MCP – un protocol care le expune într-un mod standard, ca niște prize digitale. Agentul nu trebuie să știe cum e scris fiecare API – doar cere ce are nevoie, iar MCP se ocupă de restul.
Poți combina MCP-uri de la diverși furnizori, cum ai nevoie. Agentul tău de marketing folosește tools de la Google, cel financiar accesează Stripe și QuickBooks, cel de dezvoltare lucrează cu GitHub și AWS - toate prin același protocol.
Nu mai ești legat de un singur ecosistem. Îți faci propriul mix de unelte.
În loc să întrebi un LLM generic „Ce se întâmplă cu rețeaua noastră?", întrebi un agent de rețea. Iar dacă are nevoie de date despre un client, va vorbi cu un agent de CRM. Fiecare cu jobul lui, fiecare cu uneltele lui, dar împreună formează un ecosistem inteligent.
Simulează date despre membri, porturi, VLAN-uri și atribuiri IP. Unelte: get_peer_info(asn), get_ports(asn), get_vlans(port_id)
Simulează sesiuni BGP, prefixe primite și filtre de rute. Unelte: get_bgp_sessions(asn), get_prefixes(asn), get_route_filters(asn)
Simulează trafic pe ASN, pe port și tendințe. Unelte: get_recent_traffic(asn), get_traffic_trends(port_id), get_top_talkers(vlan_id)
Simulează metrici pentru nodurile serverelor DNS root (latență, accesibilitate). Unelte: get_dns_instance_metrics(name, location), get_asn_reachability(target)
Simulează validitatea prefixelor și statusul RPKI per ASN. Unelte: get_rpki_status(asn), get_invalid_prefixes(asn)
Simulează tichete de suport, incidente și istoric de rezolvări. Unelte: get_open_tickets(asn), get_ticket_history(asn), get_ticket_by_id(id)
Când îți pare că LLM-ul analizează un Excel, el de fapt scrie cod Python care face munca.
AI-ul NU analizează datele direct → AI-ul SCRIE COD care analizează datele
Tu: "Fă grafic: vânzări pentru primele 10 produse"
AI scrie: cod matplotlib sau seaborn
Tu: "Extrage primele 20 de produse ca Excel și PDF"
AI scrie: pandas.to_excel() + matplotlib.pyplot.savefig()
Tu: "Care produse au crescut cel mai mult vs anul trecut?"
AI scrie: pandas.merge() + calcule de creștere
Tu: "Cât din vânzări: cumpărători noi vs recurenți?"
AI scrie: groupby() + logică de categorisire
Tu: "Arată hartă vânzărilor pe locații"
AI scrie: folium sau plotly pentru hărți
AI-ul nu "vede" datele ca un analist. El e un programator expert care scrie rapid codul de care ai nevoie.
Pentru a înțelege cu adevărat puterea agenților AI, am construit un sistem complex de simulare pentru un ISP/IXP Network Operations Center (NOC).
Un sistem de simulare operațională ISP care imită prin AI un Network Operations Center real. Nu e doar o demonstrație - e conceput să se simtă ca accesul la un sistem real de management ISP.
5 membri ISP ficționali dar realiști (ASN 64512-64516) cu profile complete
Date din tabelele de rutare, statusuri de sesiuni, anunțuri de prefixe
Utilizare bandwidth, date pentru planificare capacitate, metrici performanță
Baze de date tichete, tracking incidente, istorice probleme membri
Demonstrează capabilitățile avansate ale serverelor MCP cu fluxuri de date complexe și arhitectură hibridă (date statice + analiză AI).
Poți experimenta cu acest sistem agentic în două moduri. Click pe unul din cele două butoane de mai jos:
După ce ai configurat opțiunea de mai sus, urmează acești pași pentru a experimenta cu agenții AI:
Scrie pur și simplu "help" în chat pentru a vedea toate comenzile și capabilitățile disponibile ale agenților ISP.
Poți pune întrebări în limba română despre orice aspect al operațiunilor ISP. Iată câteva exemple:
Dacă ai întrebări sau vrei să explorezi cum poate AI-ul să te ajute în proiectele tale, să vorbim.
Dă-mi un semn