AI asszisztens, ami a saját adatodon dolgozik
A "vanilla LLM" válaszok már nem elegek. Elmondjuk, hogyan építettünk domain-grounded AI-t a Netorigo stack-re.
A "helyes válasz" 2026-ban már nem az, ami "jól hangzik" — hanem az, ami a saját adataidból jön.
Amikor egy ügyfél először látja az AI-asszisztensünket a NIP Platform-on, rendszerint egy kérdés van a szemében: "ez csak egy ChatGPT wrapper?". A válasz: nem, és ebben a posztban megmutatjuk, miért nem.
A "domain grounding" réteg
Minden Nortinia termék mögött van egy dedikált grounding réteg, amely három dologra figyel: ki kérdez (tenant, role), mi az aktuális kontextus (melyik szerver, melyik VM, melyik incidens), és milyen adatokhoz férhet hozzá (RBAC). Enélkül nincs válasz — az LLM sosem kapja meg a prompt-ot, amíg a grounding nem zöld.
- Tenant-scope: soha nincs cross-tenant leak
- Role-based field masking: PII adat nem kerül a promptba, ha a user nem látja
- Context cache: 30 mp-es TTL, hogy ne DDoS-oljuk a DB-t
- Audit log minden egyes LLM hívásra, bemenet és kimenet
Mit látni a végén
A felhasználó beír egy kérdést, az asszisztens egy percen belül választ ad, és minden állítása mögé linkel — konkrét log bejegyzést, konkrét riasztást vagy konkrét metrika-pontot. Nincs "hallucinálás", mert nincs válasz a grounding adatok nélkül.