AI Stabilitás — 20 pont

AI Stabilitás: A technikai alap, ami nélkül semmi sem működik

Az AI Stabilitás pillér a technikai infrastruktúrát értékeli, amely biztosítja, hogy a keresőmotorok és az AI crawlerek megbízhatóan hozzáférjenek, megértsék és megbízzanak a weboldaladban. Ez az "infrastruktúra" pillér — nélküle a másik három pillér (Core Web Vitals, E-E-A-T, AI Láthatóság) sem tudja kifejteni a hatását, hiába van kiváló tartalmad vagy tökéletes strukturált adatod.

Maximum 20 pont

Mi az AI Stabilitás?

Az AI Stabilitás az a technikai alapréteg, amely meghatározza, hogy a keresőmotorok (Google, Bing) és az új generációs AI-alapú crawlerek (ChatGPT-bot, PerplexityBot, Google-Extended) egyáltalán el tudják-e érni és értelmezni tudják-e a weboldaladat. Gondolj rá úgy, mint egy épület alapozására: hiába szép a homlokzat és gazdagon berendezett a belső tér, ha az alap instabil, az egész szerkezet veszélybe kerül. Pontosan így működik az AI Stabilitás is a weboldal értékelésében — ez adja azt a megbízható technikai hátteret, amelyre a többi pillér (tartalom, megbízhatóság, láthatóság) épülhet.

A modern keresők és AI rendszerek egy jól meghatározott folyamaton keresztül dolgozzák fel a weboldalakat. Ez a folyamat három alapvető lépésből áll: crawl (bejárás), index (indexelés) és rank (rangsorolás). Az első lépésben a kereső robotja felkeresi a weboldalt és letölti annak tartalmát. A második lépésben a letöltött tartalmat elemzi, kategorizálja és eltárolja az indexben. Végül a harmadik lépésben, amikor egy felhasználó keresést indít, a rendszer az indexből kiválasztja és rangsorolja a releváns eredményeket. Az AI Stabilitás pillér elsősorban az első lépést — a bejárást — támogatja, de közvetve hat az indexelés minőségére is.

Miért olyan fontos ez? Mert a technikai problémák láthatatlanná tehetik a legjobb tartalmat is. Ha a robots.txt fájl véletlenül blokkolja a fontos oldalakat, a Google egyszerűen nem fogja bejárni őket. Ha nincs sitemap.xml, a kereső lassabban vagy egyáltalán nem fedezi fel az új tartalmakat. Ha a domain email hitelesítése (SPF/DMARC) hiányzik, a domain reputációja csökken, ami közvetetten a keresési rangsorolásra is hatással van. Az AI Stabilitás tehát nem egy "szép, ha van" kiegészítő — ez egy kötelező minimum, amely nélkül a többi optimalizálási erőfeszítés hatástalan marad.

Az AI korszakban ez különösen fontos lett. Az AI keresők (mint a Perplexity, a ChatGPT Browse, vagy a Google AI Overviews) még érzékenyebbek a technikai hibákra, mint a hagyományos crawlerek. Ezek a rendszerek gyakran egyetlen alkalommal járják be az oldalt, és az első benyomás alapján döntenek arról, hogy a forrást megbízhatónak tekintik-e. Ha a technikai alap rendben van, az AI rendszer magabiztosan hivatkozik a weboldaladra — ha nem, egyszerűen kihagyja a válaszból.

Az audit mérési pontjai

Az AI Stabilitás pillér összesen 20 pontot ér, amely négy fő területen oszlik el. Minden terület konkrét, mérhető technikai jellemzőket vizsgál.

robots.txt konfiguráció (4 pont)

A robots.txt fájl a weboldal gyökerében található szöveges fájl, amely utasításokat ad a keresőmotorok crawlereinek arról, hogy mely oldalakat járhatják be és melyeket nem. Az audit ellenőrzi, hogy a fájl létezik-e, válaszol-e (HTTP 200 státuszkóddal), és nem blokkol-e fontos tartalmakat. Különösen fontos, hogy a fájl ne tiltsa le a CSS és JavaScript fájlokat, mert a modern keresők renderelni (megjeleníteni) is akarják az oldalt, nem csak a nyers HTML-t olvassák. Egy jól konfigurált robots.txt tartalmazza a Sitemap: direktívát is, amely megmutatja a keresőnek, hol találja az XML sitemapet.

sitemap.xml jelenlét és minőség (4 pont)

Az XML sitemap egy strukturált lista a weboldal összes fontos URL-jéről. Ez segíti a keresőmotorokat abban, hogy gyorsan és hatékonyan felfedezzék az összes releváns oldalt — különösen az újakat vagy a ritkán frissülőket. Az audit vizsgálja, hogy a sitemap elérhető-e, érvényes XML formátumú-e, tartalmaz-e URL-eket, és azok a megadott URL-ek élő, működő oldalakra mutatnak-e (nem adnak-e 404 vagy 301 választ). Egy jó sitemap tartalmaz lastmod dátumokat is, amelyek jelzik a keresőnek, mikor frissült utoljára az adott oldal.

SPF rekord (3 pont)

Az SPF (Sender Policy Framework) egy DNS-alapú email hitelesítési mechanizmus, amely meghatározza, mely szerverek jogosultak a domainedről emailt küldeni. Bár első hallásra nincs köze a keresőoptimalizáláshoz, valójában erősen hat a domain reputációjára. Ha nincs SPF rekord, bárki küldhet hamis emailt a te domainedről (spoofing), ami csökkenti a domain megbízhatóságát a keresők és az AI rendszerek szemében. Egy erős SPF rekord -all (hard fail) végződéssel záródik, ami azt jelenti, hogy minden nem engedélyezett szerverről érkező email elutasítandó.

DMARC rekord (3 pont)

A DMARC (Domain-based Message Authentication, Reporting & Conformance) az SPF-re és DKIM-re épülő felügyeleti rendszer, amely megmondja a fogadó email szervernek, mit tegyen a hitelesítést nem teljesítő üzenetekkel. A DMARC három módban működhet: p=none (csak figyel, nem csinál semmit), p=quarantine (spam mappába helyezi a gyanús emaileket) és p=reject (elutasítja a hamis emaileket). Az audit a legmagasabb pontszámot a p=reject beállítás adja, mert ez nyújtja a legerősebb védelmet a domain hamisítás ellen.

Lighthouse SEO pontszám (6 pont: 4 mobil + 2 asztali)

A Google Lighthouse egy nyílt forráskódú eszköz, amely automatizált auditokat futtat weboldalak minőségére vonatkozóan. Az SEO kategória kifejezetten a technikai keresőoptimalizálási jellemzőket vizsgálja: meta tagek jelenléte és helyessége (title, description, viewport), a crawlerek számára olvasható tartalom, a mobilbarát kialakítás, a megfelelő méretű kattintható elemek (tap targets) és az hreflang attribútumok nyelvverzió esetén. Az audit mind a mobil, mind az asztali Lighthouse SEO pontszámot figyelembe veszi, de a mobil nagyobb súlyt kap (4 pont szemben az asztali 2 ponttal), mivel a Google mobile-first indexelést alkalmaz — azaz a mobil verzió alapján rangsorol.

Gyakorlati példák

A technikai elmélet érthetőbb konkrét, valós példákon keresztül. Az alábbiakban jó és rossz gyakorlatokat mutatunk be minden mérési területen.

Jó gyakorlat: Tiszta robots.txt

Egy e-commerce webáruház robots.txt fájlja engedélyezi az összes fontos oldalt, és csak az admin panelt, a kosár oldalakat és a belső keresési eredményeket tiltja le. A fájl tartalmazza a Sitemap: https://example.com/sitemap.xml sort is. Eredmény: a Googlebot szabadon bejárja a termékoldakat, a kategóriákat és a blogot — az indexelés gyors és teljes.

Rossz gyakorlat: CSS/JS blokkolás a robots.txt-ben

Egy másik webáruház robots.txt fájljában szerepel a Disallow: /css/ és Disallow: /js/ sor. Ennek következtében a Googlebot nem tudja renderelni az oldalakat, csak a nyers HTML-t látja. A mobil megjelenés nem tesztelhető, a JavaScript-alapú navigáció láthatatlan. A Google Search Console "Mobile Usability" riportja tele van figyelmeztetésekkel, és az oldalak indexelési minősége drasztikusan romlik.

Jó gyakorlat: Naprakész sitemap

Egy hírportál napi szinten frissíti a sitemap.xml fájlját, amely tartalmazza az összes aktív cikk URL-jét lastmod dátumokkal és priority értékekkel. A sitemap indexet (sitemap_index.xml) használ, mert az oldalszám meghaladja az 50 000-et, így külön sitemapekben szervezi a cikkeket, kategóriákat és szerzői oldalakat. Eredmény: az új cikkek perceken belül megjelennek a Google keresési eredményei között.

Rossz gyakorlat: Elavult sitemap

Egy vállalati weboldalon a sitemap.xml-t egyszer generálták, a weboldal indulásánál, és soha többé nem frissítették. A benne szereplő URL-ek fele már 404-es hibát ad, vagy 301-es átirányítással mutat más oldalra. Az új tartalmak (blogbejegyzések, szolgáltatás oldalak) egyáltalán nem szerepelnek benne. A Google crawl budget-jének jelentős részét a hibás URL-ek bejárására pazarolja.

Jó gyakorlat: Teljes email hitelesítés

Egy SaaS cég domainje teljes SPF + DKIM + DMARC konfigurációval rendelkezik. Az SPF rekord -all (hard fail) végződéssel zárja le a nem engedélyezett küldőket, a DMARC policy p=reject értéken áll, azaz a hitelesítést nem teljesítő emaileket a fogadó szerver azonnal elutasítja. Eredmény: senki nem tud hamis emailt küldeni a domain nevében, a domain reputáció kiváló, és a keresők is megbízhatónak tekintik a domainta.

Rossz gyakorlat: Hiányzó email hitelesítés

Egy kisvállalkozás domainjéhez nincs SPF rekord beállítva. Spammerek a domainnevet használva küldnek adathalász emaileket. A fogadó email szerverek (Gmail, Outlook) a domaingyanúsnak jelölik meg, és a domain reputációja rohamosan csökken. Az üzleti emailek is spam mappába kerülnek. A kereső algoritmusok a csökkenő domain trust score-t érzékelik, ami negatívan hat a keresési rangsorolásra is.

Jó gyakorlat: Tökéletes Lighthouse SEO

Egy portfólió weboldal Lighthouse SEO pontszáma mobil és asztali nézetben egyaránt 100/100. Minden oldal rendelkezik meta viewport taggel, egyedi title és meta description elemekkel, a kattintható elemek mérete legalább 48x48 pixel, a betűméret mobilon is olvasható, és az oldal robots meta tagje nem blokkolja az indexelést. Az eredmény: a Google teljes mértékben képes indexelni és rangsorolni az oldalt mobilon.

Rossz gyakorlat: Figyelmen kívül hagyott Lighthouse SEO figyelmeztetések

Egy régebbi weboldalon hiányzik a meta viewport tag, ezért mobilon a teljes asztali nézet jelenik meg kicsinyítve. A kattintási célpontok (gombok, linkek) 20 pixel méretűek, ami mobilon szinte használhatatlan. A Lighthouse SEO pontszám 54/100, de a webmester figyelmen kívül hagyja a figyelmeztetéseket. A Google mobile-first indexelése miatt az oldal hátrányba kerül a rangsorolásban, és az AI keresők is mellőzik forrásként.

Legjobb gyakorlatok

Az alábbi lista összefoglalja azokat a bevált módszereket, amelyekkel maximalizálhatod az AI Stabilitás pontszámodat. Ezek nem egyszeri feladatok — a legtöbbjüket rendszeresen ellenőrizni és karbantartani kell.

  • robots.txt: Engedd az összes fontos útvonalat. A robots.txt fájl alapértelmezetten engedélyezzen mindent (Allow: /), és csak a valóban szükséges útvonalakat tiltsa (admin panelek, kosár, belső keresés). Soha ne tiltsd le a /css/, /js/ vagy /images/ mappákat.
  • Sitemap hivatkozás a robots.txt-ben. Add hozzá a Sitemap: https://www.example.com/sitemap.xml sort a robots.txt végéhez. Ez az egyik legegyszerűbb módja annak, hogy a keresők gyorsan megtalálják a sitemapedet.
  • XML sitemap lastmod dátumokkal. Minden URL-hez adj meg lastmod dátumot, ami az adott oldal utolsó érdemi frissítésének időpontját jelzi. Ne használj hamis vagy automatikusan generált dátumokat — a Google felismeri és figyelmen kívül hagyja az irreális lastmod értékeket.
  • Sitemap index nagy oldalak esetén. Ha a weboldalad 50 000-nél több URL-t tartalmaz, használj sitemap indexet (sitemap_index.xml), amely több kisebb sitemap fájlra mutat. Minden egyes sitemap fájl legfeljebb 50 000 URL-t vagy 50 MB-ot tartalmazhat az irányelv szerint.
  • SPF rekord -all (hard fail) végződéssel. Az SPF rekord végén a -all jelzi, hogy minden nem felsorolt küldő szerver emailjét el kell utasítani. A gyengébb ~all (soft fail) kevesebb védelmet nyújt, mert a fogadó szerverek nem feltétlenül utasítják el ezeket az emaileket.
  • DMARC p=reject policy. A DMARC bevezetését érdemes fokozatosan elvégezni: először p=none módban a monitoring, majd p=quarantine a tesztelés, végül p=reject a teljes védelem érdekében. Ne hagyd örökre p=none állapotban — az nem nyújt tényleges védelmet.
  • Lighthouse SEO audit rendszeres futtatása. Futtasd a Lighthouse SEO auditot legalább havonta, különösen nagyobb weboldal frissítések után. A Chrome DevTools-ban (F12 > Lighthouse fül) vagy a PageSpeed Insights API-n keresztül automatizálva is futtathatod.
  • Mobile-first megközelítés. Mivel a Google mobile-first indexelést használ, minden technikai optimalizálást elsősorban a mobil verzióra vonatkozóan végezz el. A meta viewport tag kötelező, a kattintható elemek legalább 48x48 pixelesek legyenek, és a betűméret mobilon is olvasható legyen (minimum 16px).
  • Tiszta URL struktúra. Használj beszédes, rövid URL-eket, amelyek tartalmazzák a kulcsszavakat. Kerüld a dinamikus paramétereket (?id=123&cat=456) amennyire lehetséges, és használj kötőjeleket a szavak elválasztására. A tiszta URL-ek könnyebben indexelhetők és megjegyezhetők.

Gyakori hibák

A technikai SEO területén a leggyakoribb hibák sokszor nem a tudás hiányából, hanem a figyelmetlenségből vagy a karbantartás elhanyagolásából fakadnak. Az alábbiakban a legsúlyosabb és leggyakoribb problémákat soroljuk fel.

A leggyakoribb AI Stabilitás hibák

  • Disallow: / — mindent blokkol. Ez a sor a robots.txt-ben az összes crawler-t kitiltja a teljes weboldalról. Ez a legsúlyosabb hiba, mert a weboldal teljesen láthatatlanná válik a keresők számára. Sajnos meglepően gyakori, különösen amikor egy fejlesztési (staging) környezet robots.txt fájlját véletlenül az éles szerverre másolják.
  • sitemap.xml 404-es hibát ad. A robots.txt-ben hivatkozott sitemap URL nem létezik, vagy rossz helyre mutat. A keresőrobot hibaüzenettel találkozik, és nem kap segítséget az oldal struktúrájának megismerésében.
  • Sitemap URL-ek 301/404 státusszal. A sitemap fájl ugyan létezik és érvényes XML, de az abban felsorolt URL-ek egy része átirányításra (301) vagy hibaoldalra (404) vezet. Ez pazarolja a crawl budget-et és rontja a weboldal megbízhatóságának megítélését.
  • Hiányzó SPF rekord. SPF nélkül bárki küldhet emailt a te domainedről. Ez közvetlenül rontja a domain reputációját. Az emailek nagy valószínűséggel spam mappába kerülnek, és a domain trust score csökken, ami a keresési rangsorolásra is negatívan hat.
  • DMARC örökre p=none állapotban. Sok webmester beállítja a DMARC-ot p=none módban a monitoring kedvéért, de soha nem lépteti tovább p=quarantine vagy p=reject szintre. A p=none mód semmilyen védelmet nem nyújt — csak figyeli a forgalmat anélkül, hogy bármit is tenne a hamis emailekkel.
  • Lighthouse SEO figyelmeztetések figyelmen kívül hagyása. A hiányzó meta viewport, a túl kicsi kattintási célpontok (tap targets), a hiányzó title és meta description tagek — ezek mind olyan problémák, amelyeket a Lighthouse SEO audit jelez, de sok webmester nem javítja ki őket, mert "úgyis működik az oldal". Mobilon ezek kritikus problémák.
  • CSS/JS fájlok blokkolása a robots.txt-ben. A régebbi "best practice" volt a CSS és JS fájlok tiltása a crawlerek elől, de a modern keresők (különösen a Google) renderelni akarják az oldalakat. Ha a stíluslapok és scriptek nem elérhetők, a kereső nem tudja ellenőrizni a mobil megjelenést, a layout stability-t, és a felhasználói élmény más aspektusait.

Pontozási módszer

Az AI Stabilitás pillér összesen 20 pontot ér az összesített 100 pontos értékelésből. Az alábbi táblázat részletezi, hogy az egyes területek hány pontot kaphatnak.

robots.txt konfiguráció
4 pont
sitemap.xml jelenlét és minőség
4 pont
SPF rekord
3 pont
DMARC rekord
3 pont
Lighthouse SEO (mobil)
4 pont
Lighthouse SEO (asztali)
2 pont

A mobil Lighthouse SEO pontszám nagyobb súllyal szerepel az asztalihoz képest, mert a Google 2019 óta alkalmazza a mobile-first indexelést. Ez azt jelenti, hogy a Google a weboldal mobil változatát tekinti elsődleges verziónak az indexelés és a rangsorolás során. Ha a mobil verzió gyenge SEO pontszámot kap, az az asztali rangsorolásra is negatívan hat.

Az egyes területek pontszámai arányosan kerülnek kiszámításra. Például a robots.txt esetén 4 pont jár, ha a fájl létezik, elérhető, nem blokkol fontos tartalmakat, és tartalmazza a Sitemap direktívát. Részleges pontszám is adható: ha a fájl létezik, de blokkolja a CSS fájlokat, az csak 2 pontot ér. Az SPF és DMARC esetén a meglét mellett a konfiguráció erőssége is számít — egy ~all SPF kevesebb pontot kap, mint egy -all.

Hogyan javítsd? — Lépésről lépésre

Az alábbi útmutató segít abban, hogy lépésről lépésre javítsd az AI Stabilitás pontszámodat. Minden lépés egy konkrét, megvalósítható feladatot ír le, a legfontosabbaktól haladva a kiegészítők felé.

  1. Ellenőrizd a robots.txt fájlt.

    Nyisd meg a böngésződben a https://www.example.com/robots.txt URL-t (a saját domainedet behelyettesítve). Győződj meg róla, hogy a fájl létezik, HTTP 200 státuszkóddal válaszol, és nem tartalmaz Disallow: / sort az összes kereső számára. Részletes útmutatót a Google hivatalos dokumentációjában találsz: robots.txt útmutató.

  2. Hozd létre vagy frissítsd a sitemap.xml fájlt.

    Ha még nincs sitemap, hozz létre egyet az összes fontos oldal URL-jével. WordPress esetén a Yoast SEO vagy Rank Math automatikusan generálja. Egyéb CMS-ek és egyedi fejlesztések esetén használj sitemap generátor eszközt. Az XML sitemap szabvány részletes leírása: sitemaps.org protokoll.

  3. Add hozzá a Sitemap direktívát a robots.txt-hez.

    A robots.txt fájl végéhez add hozzá a következő sort: Sitemap: https://www.example.com/sitemap.xml. Ez biztosítja, hogy minden kereső azonnal megtalálja a sitemapet, még mielőtt a Google Search Console-ban regisztrálnád.

  4. Állítsd be az SPF rekordot.

    A domain DNS beállításaiban hozz létre egy TXT rekordot a domain gyökerén. Egy tipikus SPF rekord így néz ki: v=spf1 include:_spf.google.com include:mail.example.com -all. Az include részek az engedélyezett küldő szervereket jelölik, a -all végződés pedig minden más feladót elutasít. Az SPF szintaxist az alábbi eszközzel ellenőrizheted: MXToolbox SPF ellenőrző.

  5. Konfiguráld a DMARC rekordot.

    A DNS-ben hozz létre egy TXT rekordot a _dmarc.example.com aldomainen. Kezdj a monitoring módban: v=DMARC1; p=none; rua=mailto:dmarc@example.com. Néhány hét adatgyűjtés után emeld p=quarantine, majd p=reject szintre. Részletes útmutatót a dmarc.org hivatalos oldalán találsz.

  6. Futtasd a Lighthouse SEO auditot.

    A Chrome böngészőben nyisd meg a DevTools-t (F12), kattints a Lighthouse fülre, válaszd az "SEO" kategóriát, és futtasd az auditot mobilon és asztali módban is. Alternatíva: használd a PageSpeed Insights webes felületet, ami a Lighthouse-t futtatja a háttérben. Jegyezd fel a figyelmeztetéseket és javítsd ki egyenként.

  7. Javítsd a mobil használhatósági problémákat.

    A Lighthouse SEO audit tipikus mobil problémái: hiányzó <meta name="viewport"> tag, túl kicsi kattintási célpontok (gombok, linkek kevesebb mint 48x48 pixel), túl kicsi betűméret (kevesebb mint 16px), és az egymáshoz túl közel elhelyezett kattintható elemek. Ezek mind CSS módosításokkal javíthatók, és a hatásuk azonnali.

  8. Monitorozz a Google Search Console-lal.

    Regisztráld a weboldaladat a Google Search Console-ban. Itt láthatod a crawl statisztikákat, az indexelési állapotot, a robots.txt feldolgozás eredményét, és a sitemap benyújtás státuszát. A Search Console az egyetlen közvetlen kapcsolatod a Google indexelő rendszerével — tartsd szemmel rendszeresen.

A fenti lépések végrehajtása után futtasd újra az AI Web teszt auditot, és ellenőrizd, hogy az AI Stabilitás pontszámod javult-e. A legtöbb technikai módosítás hatása néhány napon belül megjelenik a keresőmotorok indexelési viselkedésében, de a teljes hatás akár 2-4 hetet is igénybe vehet.

Kíváncsi vagy a weboldalad technikai felkészültségére?

Futtasd le az ingyenes AI Web teszt auditot, és percek alatt megtudod, hogy a robots.txt, sitemap.xml, SPF/DMARC és Lighthouse SEO pontszámod hol tart — és mit javíthatsz azonnal.

Vagy töltsd le az Optimalizálási Sablon HTML-t — az összes szükséges meta tag, schema és struktúra egy fájlban.