Facebook Twitter
worldseoteam.com

SEO På Plats - Vad Man Ska Undvika

Publicerat på Maj 13, 2023 av Simon Maury

Vissa lär sig genom att göra. Det handlar om artiklar om optimeringstekniker på plats som kan ge smärtsamma lektioner om de implementeras. En överblick över flera rudimentära vad man ska undvika när man utför optimering på plats.

På någon nivå är SEO eller SEO verkligen ett spel av ett-upp-manship mellan dina SE: er och optimerare. I slutet av 90 -talet betalade SE mycket fokus på metataggar och vad de hade att säga när det gäller en sida. Den efterföljande kaskaden av Metatag -skräppost slutade och orsakade SE: er att devalvera dem betydligt eller ignorera dem helt. Denna korta artikel diskuterar andra, på liknande sätt missbrukade "optimering" -tekniker som kan vara smärtsamt transparenta för att hitta motorer och kan åstadkomma straff om en webbplats fångas med att anställa dem.

Grundläggande nyckelord spamming

Det säger att knappast någon nämner metataggar längre, även för det avsedda syftet med sökordsspamm. Efter att ha blivit så aggressivt förhindrat av SE så länge är deras användbarhet till till och med hård kärna "Black Hat" SEOs försumbar. Solnedgången av Metatag-skräppost var gryningen för sökordet på sidan, ett koncept som fortfarande verkar ha lite vikt nuförtiden. Upprepade ett nyckelord, nyckelfras eller en grupp nyckelord flera gånger genom hela texten på en hel sida fortsätter att betraktas som skräppost, även om de inblandade nyckelorden är inpackning i "legitima" stycken.

Det tidiga sättet för "osynlig text" (text exakt i samma färg eftersom bakgrunden), eller mycket liten text för närvarande är i allmänhet beslutad att vara uppenbar för många sökmotorer. Det finns nu argument om huruvida liknande effekter åstadkommit via CSS förblir effektiva. Moderna fyllningstekniker yta lite mer förfinad nuförtiden. I stället för att upprepa nyckelordet om och om igen inom A, uppenbart osynligt eller litet block, är nyckelordet fritt fördelat genom stycken och titlar. De värsta gärningsmännen använder innehållsskrapare för att producera en soppa med text som, för att söka motorer Spider, är tänkt att verka som ett naturligt språk. Det kommer att se ut som ett naturligt språk för en äkta individ.

Utveckla alltid detta innehåll på en nischplats för alla de faktiska människorna, som enkelt vill läsa och förstå dina uppgifter. En bra enkel teknik som att ersätta pronomen eller obestämda artiklar med specifika nyckelord kommer att bli klumpiga och dåliga skrivande till en människa. Att fylla nyckelord i områden som människor i allmänhet inte ser, till exempel till exempel "alt" -taggar på bilder och "titel" -taggar på tabeller kan avskräckas. Den huvudsakliga användningen för dessa taggar är för tillgänglighet. Enkelt uttryckt hjälper de till exempel funktionshindrade och använder ett skärmläsarprogram för att få information om den sida som andra normalt inte nödvändigtvis skulle behöva. SE har devalverat text i dessa områden för optimeringsändamål, men på en gång hade man trott att de kan vara användbara och kanske var.

Länkar problem

Några allmänna anteckningar specifikt när det gäller interna kopplingsfrågor, eftersom detta främst gäller för på sidan. Undvik trasiga länkar. Om sidan flyttades tillfälligt eller har tagits bort permanent, klara problemet så snabbt som möjligt. Systemiska trasiga länkar kan ha en inverkan på en total ranking om de är övergripande om de förblir under långa perioder. Att rensa upp trasiga länkar är bara god praxis, utöver de möjliga SEO -fördelarna. Om en sida har flyttat, lägg in en 301 omdirigering för att ta hand om problemet. 301 Omdirigeringar är främst att ta hand om inkommande externa länkar till en hel sida från webbplatser över att din webbansvarig inte har kontroll. Uppdatera de inre länkarna för att ta hand om den helt nya platsen direkt.

Duplicerat innehåll

Det finns en överenskommelse om att ett duplicerat innehåll "straff" finns i Google, men från vilken utsträckning det straffar att webbplatser är diskuterade. Många har "straff" är bara en devalvering av själva duplikatsidan. Google bestämmer vad som är den högre av de två (eller ännu fler) versionerna av sidan "duplikat" och, när de söks, föreskriver den sidan samtidigt som den andra förflyttar de andra till kompletterande resultat eller inte visar dem alls. Andra hävdar att det kan finnas en starkare påföljd som påverkar webbplatsen tillsammans. Duplicerat innehåll kan vara ett problem som direkt påverkar artiklar som detta. Att publicera dem på din egen webbplats är avsett att skapa innehåll, men gör det värt om Google bara anser att det är ett duplikat? Vissa tror att det finns en magisk tröskelprocent som Google använder när man bestämmer hur liknande två sidor är. En utmärkt regel är alltid att se till att detta innehåll som placeras runt artikeln, navigering, layout etc., är verkligen så unik som du kan. Ge också unika titlar och metataggar för artiklarna för att hjälpa till att utvidga det från andra att njuta av det.

Slutsatser

De frågor som behandlas här kan möjligen vara en följd av en avsiktlig spammingkampanj eller en stor olycka med att vilja utföra legitim optimering. Google upprepar sitt mantra att designers bör bygga webbplatser för folk snarare än för spindlar när det pressas för information om deras algoritmer. Detta kan vara en bra regel att kolla in när man undviker spammningstekniker, eftersom mycket av dessa skapar webbplatser som resulterar i en dålig användarupplevelse för någon annan, oavsett hur bra de kan faktiskt en spindel.