Mi az AI Stabilitás?
Az AI Stabilitás az a technikai alapréteg, amely meghatározza, hogy a keresőmotorok (Google, Bing) és az új generációs AI-alapú crawlerek (ChatGPT-bot, PerplexityBot, Google-Extended) egyáltalán el tudják-e érni és értelmezni tudják-e a weboldaladat. Gondolj rá úgy, mint egy épület alapozására: hiába szép a homlokzat és gazdagon berendezett a belső tér, ha az alap instabil, az egész szerkezet veszélybe kerül. Pontosan így működik az AI Stabilitás is a weboldal értékelésében — ez adja azt a megbízható technikai hátteret, amelyre a többi pillér (tartalom, megbízhatóság, láthatóság) épülhet.
A modern keresők és AI rendszerek egy jól meghatározott folyamaton keresztül dolgozzák fel a weboldalakat. Ez a folyamat három alapvető lépésből áll: crawl (bejárás), index (indexelés) és rank (rangsorolás). Az első lépésben a kereső robotja felkeresi a weboldalt és letölti annak tartalmát. A második lépésben a letöltött tartalmat elemzi, kategorizálja és eltárolja az indexben. Végül a harmadik lépésben, amikor egy felhasználó keresést indít, a rendszer az indexből kiválasztja és rangsorolja a releváns eredményeket. Az AI Stabilitás pillér elsősorban az első lépést — a bejárást — támogatja, de közvetve hat az indexelés minőségére is.
Miért olyan fontos ez? Mert a technikai problémák láthatatlanná tehetik a legjobb tartalmat is. Ha a robots.txt fájl véletlenül blokkolja a fontos oldalakat, a Google egyszerűen nem fogja bejárni őket. Ha nincs sitemap.xml, a kereső lassabban vagy egyáltalán nem fedezi fel az új tartalmakat. Ha a domain email hitelesítése (SPF/DMARC) hiányzik, a domain reputációja csökken, ami közvetetten a keresési rangsorolásra is hatással van. Az AI Stabilitás tehát nem egy "szép, ha van" kiegészítő — ez egy kötelező minimum, amely nélkül a többi optimalizálási erőfeszítés hatástalan marad.
Az AI korszakban ez különösen fontos lett. Az AI keresők (mint a Perplexity, a ChatGPT Browse, vagy a Google AI Overviews) még érzékenyebbek a technikai hibákra, mint a hagyományos crawlerek. Ezek a rendszerek gyakran egyetlen alkalommal járják be az oldalt, és az első benyomás alapján döntenek arról, hogy a forrást megbízhatónak tekintik-e. Ha a technikai alap rendben van, az AI rendszer magabiztosan hivatkozik a weboldaladra — ha nem, egyszerűen kihagyja a válaszból.
Az audit mérési pontjai
Az AI Stabilitás pillér összesen 20 pontot ér, amely négy fő területen oszlik el. Minden terület konkrét, mérhető technikai jellemzőket vizsgál.
robots.txt konfiguráció (4 pont)
A robots.txt fájl a weboldal gyökerében található szöveges fájl, amely utasításokat ad a keresőmotorok crawlereinek arról, hogy mely oldalakat járhatják be és melyeket nem. Az audit ellenőrzi, hogy a fájl létezik-e, válaszol-e (HTTP 200 státuszkóddal), és nem blokkol-e fontos tartalmakat. Különösen fontos, hogy a fájl ne tiltsa le a CSS és JavaScript fájlokat, mert a modern keresők renderelni (megjeleníteni) is akarják az oldalt, nem csak a nyers HTML-t olvassák. Egy jól konfigurált robots.txt tartalmazza a Sitemap: direktívát is, amely megmutatja a keresőnek, hol találja az XML sitemapet.
sitemap.xml jelenlét és minőség (4 pont)
Az XML sitemap egy strukturált lista a weboldal összes fontos URL-jéről. Ez segíti a keresőmotorokat abban, hogy gyorsan és hatékonyan felfedezzék az összes releváns oldalt — különösen az újakat vagy a ritkán frissülőket. Az audit vizsgálja, hogy a sitemap elérhető-e, érvényes XML formátumú-e, tartalmaz-e URL-eket, és azok a megadott URL-ek élő, működő oldalakra mutatnak-e (nem adnak-e 404 vagy 301 választ). Egy jó sitemap tartalmaz lastmod dátumokat is, amelyek jelzik a keresőnek, mikor frissült utoljára az adott oldal.
SPF rekord (3 pont)
Az SPF (Sender Policy Framework) egy DNS-alapú email hitelesítési mechanizmus, amely meghatározza, mely szerverek jogosultak a domainedről emailt küldeni. Bár első hallásra nincs köze a keresőoptimalizáláshoz, valójában erősen hat a domain reputációjára. Ha nincs SPF rekord, bárki küldhet hamis emailt a te domainedről (spoofing), ami csökkenti a domain megbízhatóságát a keresők és az AI rendszerek szemében. Egy erős SPF rekord -all (hard fail) végződéssel záródik, ami azt jelenti, hogy minden nem engedélyezett szerverről érkező email elutasítandó.
DMARC rekord (3 pont)
A DMARC (Domain-based Message Authentication, Reporting & Conformance) az SPF-re és DKIM-re épülő felügyeleti rendszer, amely megmondja a fogadó email szervernek, mit tegyen a hitelesítést nem teljesítő üzenetekkel. A DMARC három módban működhet: p=none (csak figyel, nem csinál semmit), p=quarantine (spam mappába helyezi a gyanús emaileket) és p=reject (elutasítja a hamis emaileket). Az audit a legmagasabb pontszámot a p=reject beállítás adja, mert ez nyújtja a legerősebb védelmet a domain hamisítás ellen.
Lighthouse SEO pontszám (6 pont: 4 mobil + 2 asztali)
A Google Lighthouse egy nyílt forráskódú eszköz, amely automatizált auditokat futtat weboldalak minőségére vonatkozóan. Az SEO kategória kifejezetten a technikai keresőoptimalizálási jellemzőket vizsgálja: meta tagek jelenléte és helyessége (title, description, viewport), a crawlerek számára olvasható tartalom, a mobilbarát kialakítás, a megfelelő méretű kattintható elemek (tap targets) és az hreflang attribútumok nyelvverzió esetén. Az audit mind a mobil, mind az asztali Lighthouse SEO pontszámot figyelembe veszi, de a mobil nagyobb súlyt kap (4 pont szemben az asztali 2 ponttal), mivel a Google mobile-first indexelést alkalmaz — azaz a mobil verzió alapján rangsorol.
Gyakorlati példák
A technikai elmélet érthetőbb konkrét, valós példákon keresztül. Az alábbiakban jó és rossz gyakorlatokat mutatunk be minden mérési területen.
Jó gyakorlat: Tiszta robots.txt
Egy e-commerce webáruház robots.txt fájlja engedélyezi az összes fontos oldalt, és csak az admin panelt, a kosár oldalakat és a belső keresési eredményeket tiltja le. A fájl tartalmazza a Sitemap: https://example.com/sitemap.xml sort is. Eredmény: a Googlebot szabadon bejárja a termékoldakat, a kategóriákat és a blogot — az indexelés gyors és teljes.
Rossz gyakorlat: CSS/JS blokkolás a robots.txt-ben
Egy másik webáruház robots.txt fájljában szerepel a Disallow: /css/ és Disallow: /js/ sor. Ennek következtében a Googlebot nem tudja renderelni az oldalakat, csak a nyers HTML-t látja. A mobil megjelenés nem tesztelhető, a JavaScript-alapú navigáció láthatatlan. A Google Search Console "Mobile Usability" riportja tele van figyelmeztetésekkel, és az oldalak indexelési minősége drasztikusan romlik.
Jó gyakorlat: Naprakész sitemap
Egy hírportál napi szinten frissíti a sitemap.xml fájlját, amely tartalmazza az összes aktív cikk URL-jét lastmod dátumokkal és priority értékekkel. A sitemap indexet (sitemap_index.xml) használ, mert az oldalszám meghaladja az 50 000-et, így külön sitemapekben szervezi a cikkeket, kategóriákat és szerzői oldalakat. Eredmény: az új cikkek perceken belül megjelennek a Google keresési eredményei között.
Rossz gyakorlat: Elavult sitemap
Egy vállalati weboldalon a sitemap.xml-t egyszer generálták, a weboldal indulásánál, és soha többé nem frissítették. A benne szereplő URL-ek fele már 404-es hibát ad, vagy 301-es átirányítással mutat más oldalra. Az új tartalmak (blogbejegyzések, szolgáltatás oldalak) egyáltalán nem szerepelnek benne. A Google crawl budget-jének jelentős részét a hibás URL-ek bejárására pazarolja.
Jó gyakorlat: Teljes email hitelesítés
Egy SaaS cég domainje teljes SPF + DKIM + DMARC konfigurációval rendelkezik. Az SPF rekord -all (hard fail) végződéssel zárja le a nem engedélyezett küldőket, a DMARC policy p=reject értéken áll, azaz a hitelesítést nem teljesítő emaileket a fogadó szerver azonnal elutasítja. Eredmény: senki nem tud hamis emailt küldeni a domain nevében, a domain reputáció kiváló, és a keresők is megbízhatónak tekintik a domainta.
Rossz gyakorlat: Hiányzó email hitelesítés
Egy kisvállalkozás domainjéhez nincs SPF rekord beállítva. Spammerek a domainnevet használva küldnek adathalász emaileket. A fogadó email szerverek (Gmail, Outlook) a domaingyanúsnak jelölik meg, és a domain reputációja rohamosan csökken. Az üzleti emailek is spam mappába kerülnek. A kereső algoritmusok a csökkenő domain trust score-t érzékelik, ami negatívan hat a keresési rangsorolásra is.
Jó gyakorlat: Tökéletes Lighthouse SEO
Egy portfólió weboldal Lighthouse SEO pontszáma mobil és asztali nézetben egyaránt 100/100. Minden oldal rendelkezik meta viewport taggel, egyedi title és meta description elemekkel, a kattintható elemek mérete legalább 48x48 pixel, a betűméret mobilon is olvasható, és az oldal robots meta tagje nem blokkolja az indexelést. Az eredmény: a Google teljes mértékben képes indexelni és rangsorolni az oldalt mobilon.
Rossz gyakorlat: Figyelmen kívül hagyott Lighthouse SEO figyelmeztetések
Egy régebbi weboldalon hiányzik a meta viewport tag, ezért mobilon a teljes asztali nézet jelenik meg kicsinyítve. A kattintási célpontok (gombok, linkek) 20 pixel méretűek, ami mobilon szinte használhatatlan. A Lighthouse SEO pontszám 54/100, de a webmester figyelmen kívül hagyja a figyelmeztetéseket. A Google mobile-first indexelése miatt az oldal hátrányba kerül a rangsorolásban, és az AI keresők is mellőzik forrásként.
Legjobb gyakorlatok
Az alábbi lista összefoglalja azokat a bevált módszereket, amelyekkel maximalizálhatod az AI Stabilitás pontszámodat. Ezek nem egyszeri feladatok — a legtöbbjüket rendszeresen ellenőrizni és karbantartani kell.
- robots.txt: Engedd az összes fontos útvonalat. A
robots.txtfájl alapértelmezetten engedélyezzen mindent (Allow: /), és csak a valóban szükséges útvonalakat tiltsa (admin panelek, kosár, belső keresés). Soha ne tiltsd le a/css/,/js/vagy/images/mappákat. - Sitemap hivatkozás a robots.txt-ben. Add hozzá a
Sitemap: https://www.example.com/sitemap.xmlsort a robots.txt végéhez. Ez az egyik legegyszerűbb módja annak, hogy a keresők gyorsan megtalálják a sitemapedet. - XML sitemap lastmod dátumokkal. Minden URL-hez adj meg
lastmoddátumot, ami az adott oldal utolsó érdemi frissítésének időpontját jelzi. Ne használj hamis vagy automatikusan generált dátumokat — a Google felismeri és figyelmen kívül hagyja az irreálislastmodértékeket. - Sitemap index nagy oldalak esetén. Ha a weboldalad 50 000-nél több URL-t tartalmaz, használj sitemap indexet (
sitemap_index.xml), amely több kisebb sitemap fájlra mutat. Minden egyes sitemap fájl legfeljebb 50 000 URL-t vagy 50 MB-ot tartalmazhat az irányelv szerint. - SPF rekord
-all(hard fail) végződéssel. Az SPF rekord végén a-alljelzi, hogy minden nem felsorolt küldő szerver emailjét el kell utasítani. A gyengébb~all(soft fail) kevesebb védelmet nyújt, mert a fogadó szerverek nem feltétlenül utasítják el ezeket az emaileket. - DMARC
p=rejectpolicy. A DMARC bevezetését érdemes fokozatosan elvégezni: előszörp=nonemódban a monitoring, majdp=quarantinea tesztelés, végülp=rejecta teljes védelem érdekében. Ne hagyd örökrep=noneállapotban — az nem nyújt tényleges védelmet. - Lighthouse SEO audit rendszeres futtatása. Futtasd a Lighthouse SEO auditot legalább havonta, különösen nagyobb weboldal frissítések után. A Chrome DevTools-ban (F12 > Lighthouse fül) vagy a PageSpeed Insights API-n keresztül automatizálva is futtathatod.
- Mobile-first megközelítés. Mivel a Google mobile-first indexelést használ, minden technikai optimalizálást elsősorban a mobil verzióra vonatkozóan végezz el. A
meta viewporttag kötelező, a kattintható elemek legalább 48x48 pixelesek legyenek, és a betűméret mobilon is olvasható legyen (minimum 16px). - Tiszta URL struktúra. Használj beszédes, rövid URL-eket, amelyek tartalmazzák a kulcsszavakat. Kerüld a dinamikus paramétereket (
?id=123&cat=456) amennyire lehetséges, és használj kötőjeleket a szavak elválasztására. A tiszta URL-ek könnyebben indexelhetők és megjegyezhetők.
Gyakori hibák
A technikai SEO területén a leggyakoribb hibák sokszor nem a tudás hiányából, hanem a figyelmetlenségből vagy a karbantartás elhanyagolásából fakadnak. Az alábbiakban a legsúlyosabb és leggyakoribb problémákat soroljuk fel.
A leggyakoribb AI Stabilitás hibák
Disallow: /— mindent blokkol. Ez a sor a robots.txt-ben az összes crawler-t kitiltja a teljes weboldalról. Ez a legsúlyosabb hiba, mert a weboldal teljesen láthatatlanná válik a keresők számára. Sajnos meglepően gyakori, különösen amikor egy fejlesztési (staging) környezet robots.txt fájlját véletlenül az éles szerverre másolják.- sitemap.xml 404-es hibát ad. A robots.txt-ben hivatkozott sitemap URL nem létezik, vagy rossz helyre mutat. A keresőrobot hibaüzenettel találkozik, és nem kap segítséget az oldal struktúrájának megismerésében.
- Sitemap URL-ek 301/404 státusszal. A sitemap fájl ugyan létezik és érvényes XML, de az abban felsorolt URL-ek egy része átirányításra (301) vagy hibaoldalra (404) vezet. Ez pazarolja a crawl budget-et és rontja a weboldal megbízhatóságának megítélését.
- Hiányzó SPF rekord. SPF nélkül bárki küldhet emailt a te domainedről. Ez közvetlenül rontja a domain reputációját. Az emailek nagy valószínűséggel spam mappába kerülnek, és a domain trust score csökken, ami a keresési rangsorolásra is negatívan hat.
- DMARC örökre
p=noneállapotban. Sok webmester beállítja a DMARC-otp=nonemódban a monitoring kedvéért, de soha nem lépteti továbbp=quarantinevagyp=rejectszintre. Ap=nonemód semmilyen védelmet nem nyújt — csak figyeli a forgalmat anélkül, hogy bármit is tenne a hamis emailekkel. - Lighthouse SEO figyelmeztetések figyelmen kívül hagyása. A hiányzó
meta viewport, a túl kicsi kattintási célpontok (tap targets), a hiányzótitleésmeta descriptiontagek — ezek mind olyan problémák, amelyeket a Lighthouse SEO audit jelez, de sok webmester nem javítja ki őket, mert "úgyis működik az oldal". Mobilon ezek kritikus problémák. - CSS/JS fájlok blokkolása a robots.txt-ben. A régebbi "best practice" volt a CSS és JS fájlok tiltása a crawlerek elől, de a modern keresők (különösen a Google) renderelni akarják az oldalakat. Ha a stíluslapok és scriptek nem elérhetők, a kereső nem tudja ellenőrizni a mobil megjelenést, a layout stability-t, és a felhasználói élmény más aspektusait.
Pontozási módszer
Az AI Stabilitás pillér összesen 20 pontot ér az összesített 100 pontos értékelésből. Az alábbi táblázat részletezi, hogy az egyes területek hány pontot kaphatnak.
A mobil Lighthouse SEO pontszám nagyobb súllyal szerepel az asztalihoz képest, mert a Google 2019 óta alkalmazza a mobile-first indexelést. Ez azt jelenti, hogy a Google a weboldal mobil változatát tekinti elsődleges verziónak az indexelés és a rangsorolás során. Ha a mobil verzió gyenge SEO pontszámot kap, az az asztali rangsorolásra is negatívan hat.
Az egyes területek pontszámai arányosan kerülnek kiszámításra. Például a robots.txt esetén 4 pont jár, ha a fájl létezik, elérhető, nem blokkol fontos tartalmakat, és tartalmazza a Sitemap direktívát. Részleges pontszám is adható: ha a fájl létezik, de blokkolja a CSS fájlokat, az csak 2 pontot ér. Az SPF és DMARC esetén a meglét mellett a konfiguráció erőssége is számít — egy ~all SPF kevesebb pontot kap, mint egy -all.
Hogyan javítsd? — Lépésről lépésre
Az alábbi útmutató segít abban, hogy lépésről lépésre javítsd az AI Stabilitás pontszámodat. Minden lépés egy konkrét, megvalósítható feladatot ír le, a legfontosabbaktól haladva a kiegészítők felé.
-
Ellenőrizd a robots.txt fájlt.
Nyisd meg a böngésződben a
https://www.example.com/robots.txtURL-t (a saját domainedet behelyettesítve). Győződj meg róla, hogy a fájl létezik, HTTP 200 státuszkóddal válaszol, és nem tartalmazDisallow: /sort az összes kereső számára. Részletes útmutatót a Google hivatalos dokumentációjában találsz: robots.txt útmutató. -
Hozd létre vagy frissítsd a sitemap.xml fájlt.
Ha még nincs sitemap, hozz létre egyet az összes fontos oldal URL-jével. WordPress esetén a Yoast SEO vagy Rank Math automatikusan generálja. Egyéb CMS-ek és egyedi fejlesztések esetén használj sitemap generátor eszközt. Az XML sitemap szabvány részletes leírása: sitemaps.org protokoll.
-
Add hozzá a Sitemap direktívát a robots.txt-hez.
A
robots.txtfájl végéhez add hozzá a következő sort:Sitemap: https://www.example.com/sitemap.xml. Ez biztosítja, hogy minden kereső azonnal megtalálja a sitemapet, még mielőtt a Google Search Console-ban regisztrálnád. -
Állítsd be az SPF rekordot.
A domain DNS beállításaiban hozz létre egy TXT rekordot a domain gyökerén. Egy tipikus SPF rekord így néz ki:
v=spf1 include:_spf.google.com include:mail.example.com -all. Azincluderészek az engedélyezett küldő szervereket jelölik, a-allvégződés pedig minden más feladót elutasít. Az SPF szintaxist az alábbi eszközzel ellenőrizheted: MXToolbox SPF ellenőrző. -
Konfiguráld a DMARC rekordot.
A DNS-ben hozz létre egy TXT rekordot a
_dmarc.example.comaldomainen. Kezdj a monitoring módban:v=DMARC1; p=none; rua=mailto:dmarc@example.com. Néhány hét adatgyűjtés után emeldp=quarantine, majdp=rejectszintre. Részletes útmutatót a dmarc.org hivatalos oldalán találsz. -
Futtasd a Lighthouse SEO auditot.
A Chrome böngészőben nyisd meg a DevTools-t (F12), kattints a Lighthouse fülre, válaszd az "SEO" kategóriát, és futtasd az auditot mobilon és asztali módban is. Alternatíva: használd a PageSpeed Insights webes felületet, ami a Lighthouse-t futtatja a háttérben. Jegyezd fel a figyelmeztetéseket és javítsd ki egyenként.
-
Javítsd a mobil használhatósági problémákat.
A Lighthouse SEO audit tipikus mobil problémái: hiányzó
<meta name="viewport">tag, túl kicsi kattintási célpontok (gombok, linkek kevesebb mint 48x48 pixel), túl kicsi betűméret (kevesebb mint 16px), és az egymáshoz túl közel elhelyezett kattintható elemek. Ezek mind CSS módosításokkal javíthatók, és a hatásuk azonnali. -
Monitorozz a Google Search Console-lal.
Regisztráld a weboldaladat a Google Search Console-ban. Itt láthatod a crawl statisztikákat, az indexelési állapotot, a robots.txt feldolgozás eredményét, és a sitemap benyújtás státuszát. A Search Console az egyetlen közvetlen kapcsolatod a Google indexelő rendszerével — tartsd szemmel rendszeresen.
A fenti lépések végrehajtása után futtasd újra az AI Web teszt auditot, és ellenőrizd, hogy az AI Stabilitás pontszámod javult-e. A legtöbb technikai módosítás hatása néhány napon belül megjelenik a keresőmotorok indexelési viselkedésében, de a teljes hatás akár 2-4 hetet is igénybe vehet.