Deutschland SEO https://deutschlandseo.de Serioese Suchmaschinenoptimierung ohne Experimente Fri, 01 Jan 2016 21:11:35 +0000 de-DE hourly 1 Deutschlandseo Affiliate Programm – 10% Provision pro Kunde https://deutschlandseo.de/das-deutschlandseo-affiliate-programm-10-provision-fuer-jeden-geworbenen-kunden/ Mon, 23 Nov 2015 19:17:40 +0000 https://deutschlandseo.de/?p=498 Das Deutschlandseo Affiliate Programm – 10% Provision für jeden geworbenen Kunden!

Euro-Banknoten

Hallo Leute, ich freue mich Euch mein neues Deutschlandseo Partnerprogramm vorzustellen! Für jeden geworbenen Kunden der eine Dienstleistung bei Deutschlandseo.de in Anspruch nimmt, zahlen wir 10% Vermittlungsgebühr. Ohne wenn und Aber! Der Preisrahmen bei uns beläuft sich je nach Projekt von 150 bis hin zu 1000 Euro und darüber hinaus und Ihr könnt Euch sicherlich vorstellen dass 10% eine wirklich großzügige Vermittlungsgebühr sind. Bei Fragen schickt uns einfach eine Email an kontakt[ät]deutschlandseo.de . Unsere Dienstleistungen sind Suchmaschinenoptimierung, WordPress Webdesign, Soziale Netzwerke und Contentmarketing, Logo und Fylerdesign und vieles mehr!

]]>
Webdesign und SEO im Saarland/Saarbrücken https://deutschlandseo.de/webdesign-und-seo-im-saarlandsaarbruecken/ Fri, 10 Jul 2015 13:46:22 +0000 https://deutschlandseo.de/?p=478 Webdesign und SEO im Saarland/Saarbrücken

Unser Dienstleistungsumfang beinhaltet unter Anderem:

Lokale SEO / Suchmaschinenoptimierung

Wir designen Webauftritte für kleine Geschäfte, Restaurants, Onlinshops, Handwerksbetriebe, Fotografen, Bars, Immobilienmakler, usw.

Neben dem Webdesign bieten wir auch noch weitere Dienstleistungen im SEO Bereich an. Ein sehr beliebtes Paket ist das „Lokale SEO“ Paket, bei dem Eure Webseite in allen wichtigen Diensten und sozialen Netzwerken plaziert und beworben wird.

E-Commerce, Produktseiten, usw.

Alle möglichen Webseiten zb. zum Verkauf eines Ebooks, Launch Seiten für Produkte, Landing Pages zur Erstellung einer Emailliste sind nur ein paar Beispiele was machbar ist.

– Marketing und Online Werbung

Wir unterstützen Selbstständige und Geschäfte dabei, Werbung auf Plattformen wie Facebook, Adwords und sonstigen Werbenetzwerken zu plazieren. Außerdem bieten wir Beutreuung für weitere Angelegenheiten die mit Marketing und Inseraten zu tun haben und arbeiten in allen möglichen sozialen Netzwerken.

– Grafik und Logo Design

Wir entwerfen Logos und Designs für alle Anlässe. Egal ob Firmenlogo, Visitenkarten, Briefköpfe, Header, Banner, T-Shirts,usw.

– Webdesign

Ich baue ausschließlich Webseiten mit WordPress, da das DEUTLICHE SEO Vorteile bietet und deutlich leichter für unsere Partner zu erlenen ist . Wir richten nicht nur Webseiten ein, sondern geben auch Nachhilfekurse in der Bedienung der Webseiten. Außerdem Einrichtung von wichtigen Ecommerce Tools wie Einbindung von Zahlungs-Gateways, Paypal Einrichtung, usw.

– Entfernung von Negativer SEO

Ich helfe Euch, negative Nachrichten und Inhalte aus dem Internet zu löschen. Nicht nur peinliche Fotos sondern auch unrichtige Bewertungen usw. können von mir angegangen werden. Auch bei der Entfernung unangenehmer Daten, Fotos und Verunglimpfungen sind wir behilflich.

– Virtuelle Assistenz

Bei Fragen und Problem schickt mir einfach eine Mail über das Kontaktforumular oder der Email Adresse kontakt[ät}deutschlandseo.de

Ich arbeite verstärkt im Raum Saarbrücken, Zweibrücken, Ensheim, Ommersheim, Bliesgau, Homburg, St. Ingbert, Bierbach, Lautzkirchen, usw. In Ausnahmen auch darüber hinaus.

Bei Interesse oder falls Fragen bestehen, machen wir gerne ein unverbindliches Angebot!

]]>
Darf man seine Leser bitten Backlinks zu setzen? https://deutschlandseo.de/darf-man-seine-leser-bitten-backlinks-zu-setzen/ Thu, 09 Jul 2015 12:20:33 +0000 https://deutschlandseo.de/?p=476 Darf man seine Leser bitten Backlinks zu setzen?

Hey Leute, in den letzten Tagen herschte Unsicherheit darüber, was Google mit einer Meldung im Portugiesischen Webmasters Blog gemeint hat. Und zwar hieß es darin „DO NOT SELL, BUY, EXCHANGE OR ASK FOR LINKS“. Übersetzt heißt dies, dass man Links weder kaufen, verkaufen noch tauschen und auch nicht nach Links auf seiner Seite fragen darf. Aber da es eigentlich bei vielen Webmastern und Firmen wirklich Gang und Gäbe ist, in einem Artikel noch darauf hinzuweisen, dass man auch gerne zur Seite verlinken dürfe, waren diese aufgrund der Meldung ein bißchen in Aufruhr.

Jetzt hat Google aber neue Informationen nachgereicht und das ganze ein wenig abgeändert. Jetzt heißt es, man darf nicht nach Links fragen die die Google TOS  verletzten, was somit bei weitem nicht mehr so dramatisch klingt wie vorher. Trotzdem finde ich es persönlich keine gute Idee, die Webmaster so sehr einzuschränken, so dass sie nichtmal mehr bei wirklich gutem Content nach einem Backlink fragen darf. Natürlich ist es selbstverständlich dass in einer perfekten Welt vielleicht ganz natürlich Backlinks gesetzt werden weil die Leute den Artikel auch einfach teilen möchten. Doch ist das in vielen Branchen auch nicht so gebräuchlich wie zum Beispiel bei viralen Videos. Stellt Euch mal vor Ihr habt eine Seite über Teichpumpen. Und da könnt Ihr unter Umständen lange auf einen Backlink warten. Und das unabhängig von der Qualität Eures Content.

Aber genug davon. Weiterhin nicht erlaubt ist es, auf so Seiten wie zum Beispiel Fiverr Backlinks zu „kaufen“ um den Google Rank einer Webseite zu manipulieren. Denn dadurch wird die Qualität der Suchergebnisse manipuliert, so dass man sich auf die Google Ergebnisse nicht mehr verlassen kann. Und das ist Google schon seit Langem ein Dorn im Auge. Ohne diese Maßnahme würde die ersten Seiten im Google Index nämlich nicht aus den besten Seiten bestehen, sondern aus qualitativ schlechten Seiten die einfach eine ganze Menge Backlinks gekauft oder selbst gesetzt haben. Und genau das möchte Google verhinden.

Also, nach Backlinks fragen ist eine heikle Angelegenheit aber solange Ihr das nicht auf eine Art und Weise macht, die gegen Googles Bestimmungen verstößt, solltet Ihr eigentlich keinerlei Einbußen oder Probleme damit bekommen. Aber natürlich kann ich dafür keine Garantie geben, denn was genau noch im Rahmen der TOS ist und was nicht kommt oft auch auf den Einzelfall an und ist vom jeweiligen Bearbeiter bei Google abhängig. Der Idealfalls wäre natürlich wenn Eure Leser ganz natürlich Backlinks setzen. Und zwar einfach weil die Qualität Eures Content so gut ist, dass man den Artikel einfach teilen möchte.

]]> Die WordPress Kommentarfunktion ist tot! Schaltet sie ab! https://deutschlandseo.de/die-wordpress-kommentarfunktion-ist-tot-schaltet-sie-ab/ https://deutschlandseo.de/die-wordpress-kommentarfunktion-ist-tot-schaltet-sie-ab/#respond Mon, 08 Jun 2015 12:59:31 +0000 https://deutschlandseo.de/?p=472 Die WordPress Kommentarfunktion ist tot! Schaltet sie ab!

Hi Leute, ich möchte mich mit meinem Posting heute vor allem an die Webmaster richten, die WordPress benutzen! Ich kann Euch wirklich nur raten die WordPress Kommentar-Funktion schleunigst auszuschalten um Euch eine Menge Zeit und Nerven zu sparen! Denn der ganze Bot-spam hat die WordPress Kommentarfunktion getötet. Der Anteil der authentischen Kommentare ist wirklich winzig und den ganzen Tag bekommt man irgendwelche Meldungen weil wieder irgendein Bot versucht, einen Kommentar zu posten. Und das sieht dann in etwa so aus:

„HELLO DEUTSCHLANDSEO I VERRY MUTCH LIKED YOUR POSTING CALLED „DISCLAIMER“ IT WAS THE BEST THING I EVER READ!
Und da bei WordPress Kommentaren auch ein Feld für die Webseite eines Kommentatoren vorgesehen ist, wird der Kommentar dann natürlich auch als Backlink gewertet. Und das ist der einzige Grund warum diese Leute versuchen, ihre grausigen Webseiten per WordPress Kommentar zu ranken. Versteht mich nicht falsch, Backlinks sind auch in 2015 ein wichtiger Aspekt der SEO Arbeit. Aber mann kann heutzutage echt nicht mehr erwarten mit einer schlechten Seite nur aufgrund Low Quality PR0 Backlinks die man per Bot gesetzt hat zu ranken. Alleine aufgrund der geringen Verweildauer und dem geringen Anteil an zurückkehrenden Besuchern wird die Seite früher oder später aus dem Google Index verschwinden. Und dann kommen noch die ganzen On-Page Probleme dazu, die dann am Ende dazu führen dass man den Kommentarspam manuell wieder disavowen muss.

Und wer sich 2015 noch mit schlechten Backlinks beschätigt hat ganz klar den Schuss nicht gehört. Heuzutage besteht SEO Arbeit daraus, gute Qualität für den Nutzer zu liefern, so dass es ganz natürlich ist, das Backlinks entstehen. Natürlich kann man als Webmaster immer auf andere Webseiten zugehen und versuchen On-Topic Backlinks zu bekommen aber das darf auf keinen Fall per Kommentar-Bot geschehen. Denn solche Backlinks haben meist den gleichen Anchor und sind auf Seiten die ÜBERHAUPT nix mit der zu rankenden Seite zu tun haben zu finden, woran Google dann wieder ruck zuck merkt, dass es sich mit Sicherheit nur um Spam handeln kann.

Also Webmaster, tut Euch einen Gefallen und schaltet die WordPress Kommentarfunktion einfach ab, denn sonst geht es Euch wie mir. Ich bekomme im Monat gut 500 Spam-Kommentare die ich immer wieder löschen muss. Im Vergleich dazu benutzen vielleicht 00,1% echte Nutzer die WordPress Kommentarfunktion und wegen dem Kommentar lohnt es sich einfach nicht, sich den Mist immer wieder anzutun. Oder nutzt Facebook Kommentare. Damit gebt Ihr FB zwar einen sehr schwerwiegenden Einblick in Eure Seite…aber dort ist der Anteil der Spamkommentare bei weitem nicht so hoch. Bei der WordPress-internen Kommentarfunktion hingegen kommen täglich mehere automatisch generierte Kommentare rein.

Die WordPress Kommentarfunktion ist tot! Schaltet sie ab und ich hoffe inständig dass sie bei einer der nächsten WordPress Versionen ganz wegfällt!

Oder nutzt einen Service wie AKISMET, der einen Großteil des Kommentarspams reduziert. Sorry für de Wutanfall aber ich finde es einfach ärgerlich, wenn ich sehe mit welchen primitiven Tricks manche Leute versuchen ihre Seiten zu ranken.

]]>
https://deutschlandseo.de/die-wordpress-kommentarfunktion-ist-tot-schaltet-sie-ab/feed/ 0
Backlinks von „Linkfarmen“ – Eine moderne Pest! https://deutschlandseo.de/backlinks-von-linkfarmen-eine-moderne-pest/ https://deutschlandseo.de/backlinks-von-linkfarmen-eine-moderne-pest/#respond Sat, 06 Jun 2015 14:32:57 +0000 https://deutschlandseo.de/?p=468 Backlinks von „Linkfarmen“ – Eine moderne Pest!

Moin Leute, obwohl ich darüber neulich schonmal ein Posting gemacht habe, will ich nochmal über schlechte Backlinks reden, die man von irgendwelchen Betreibern von Link-Aggregatoren oder Datenbanken verpasst bekommt. Natürlich gegen den Willen des Seiteninhabers, denn sowas machen Webmaster mit Hirn schon längst nicht mehr! Und solche schlechte Backlinks beeinflussen AKTIV Eure Google Performance! Und zwar nicht zu knapp! Jeder IT Experte der für Firmen Webseiten betreut und die SEO macht, sollte aktiv und regelmäßig gegen schlechte Backlinks vorgehen. Inzwischen ist Google auch klar, dass viele Leute negative SEO benutzen und gibt Euch mit dem Disavow Tool ein gutes Mittel um gegen negative Links vorzugehen. Ich google regelmäßig die Namen und wichtigsten Suchbegriffe der Webseiten, die ich betreue. Und falls ich da eine nennenswerte Verschlechterung der Position feststelle, suche ich nach dem Grund. Zuerst sollte man alle technischen Probleme ausschließen und sich dann mal bei Google Webmaster Tools die Liste der Backlinks ansehen. Und falls da etwas dazu gekommen ist, macht Ihr eine Liste mit allen Backlinks die Ihr loswerden möchtet und ladet es beim Google Disavow Tool hoch! Es dauert normal nicht lange, bis sich Euch Position wieder verbessert hat, nachdem die schlechten Backlinks abgewertet wurden. Langfristig solltet Ihr Euch aber mal darüber Gedanken machen, wo die Backlinks her kommen. Es gibt Backlinks von Low-Quality Webseiten, die einfach versuchen, Datenbanken zu erstellen und automatisch Webseiten katalogisieren. Meistens ist ein Backlink von einer solchen Seite NICHTS gutes und sollte unbedingt abgewertet werden. Doch vorsicht, so Seiten wie Reddit oder Pinterest gehören natürlich nicht dazu! Außerdem gibt es Backlinks, die von Mitbewerbern absichtlich hinterlassen werden. Und da würde ich Euch raten, Euch immer die unmittelbar vor Euch rankenden Webseiten anzusehen. Denn für sowas gibt es immer ein Motiv und nach genauer Analyse könnt Ihr unter Umständen den Mitbewerber ausfinding machen, der Euch das eingebrockt hat. Analysiert die Backlinks, die Anchors, die IP´s die die Backlinks gesetzt haben. Schaut Euch auch mal zur Sicherherheit ähnliche Domainnamen an, denn vielleicht möchte Euch auch jemand ans Bein pinkeln der einen ähnlichen Domainnamen hat! Wo Rauch ist ist auch Feuer und obwohl ich Euch absolut davon abraten möchte, selbst auf dieses niedrige Niveau zu sinken, kann man sich das auf jeden Fall mal genauer ansehen und Euch dann eventuell auch an die Spam Abteilung von Google wenden. Aber das würde ich natürlich nur in Ausnahmefällen machen. Falls einfach jemand von einer qualitativ schlechten Webseite zu Euch linkt, könnt Ihr das ganz einfach mit dem Disavow Tool von Google abwerten. Zum Teil kann es auch helfen, wenn Ihr den Domainnamen der auf Euch linkt mal in Google eingibt. Und vielleicht mit dem Wort „Disavow“ um zu sehen, was andere Webmaster über die Seite sagen. Denn es gibt so ein paar Kandidaten, die Millionen von Webseiten in ihren Datenbanken eintragen. Und das natürlich meistens ohne das Einverständnis der Webseiteninhaber! Benutzt bei der Bewertung einfach Euren gesunden Menschenverstand. Sieht eine Seite irgendwie zwielichtig aus und hatte tausende Links auf der Seite, dann wertet Google das unter Umständen als Spam. Und falls Ihr zum Beispiel selbst einige SEO Probleme auf der Seite habt, dann ziehen Euch diese schlechten Links runter. Also, Disavow Tool benutzen und gut ist!

Bei einer Webseite die ich betreue ist seit ein paar Wochen der Google Dance angesagt! Jedesmal wenn die schlechten Webseiten linken, sinkt die Seite beim Haupt-Keywort und sobald ich die schlechten Backlinks abwerte, steigt sie wieder! Also, behaltet Eure Backlinks im Auge!

Und zu guter Letzt noch einen kleinen Disclaimer! Seid vorsichtig mit dem Abwerten von Links, denn wenn Ihr versehentlich ein paar gute Links entwertet, kann Euch blühen dass Ihr noch weiter in den SERPS sinkt als vorher. Nicht jede Seite die schlecht aussieht ist auch automatisch eine Seite mit toxischen Backlinks.

]]>
https://deutschlandseo.de/backlinks-von-linkfarmen-eine-moderne-pest/feed/ 0
Sollte man sich eine „Exact Match Domain“ zulegen oder nicht? https://deutschlandseo.de/sollte-man-sich-eine-exact-match-domain-zulegen-oder-nicht/ https://deutschlandseo.de/sollte-man-sich-eine-exact-match-domain-zulegen-oder-nicht/#respond Fri, 05 Jun 2015 12:57:45 +0000 https://deutschlandseo.de/?p=465 Sollte man sich eine „Exact Match Domain“ zulegen oder nicht?

Die Frage ob man sich eine Schlüsselwortdomain zulegen sollte oder nicht kommt immer mal wieder auf. Und die Älteren von Euch werden sich sicherlich an Zeiten erinnern, als es mit der richtigen Domain extrem einfach war auf Google zu ranken. Hatte man sich nämlich eine gute Domain registriert die bereits die Suchbegriffe für die jeweilige Branche enthält, dann war man schonmal auf einem guten Weg. In einem Beispiel möchte ich das jetzt nur mal kurz veranschaulichen, damit Ihr wisst was ich meine. Ein Reifenhändler aus Buxtehude hatte nämlich gute Karten, wenn er sich reifen-buxtehude[de] registriert hatte. Denn mit den beiden relevanten Suchworten in der Domain war man meistens auf Google vorne mit dabei. Doch heute ist das alles ein bißchen anders. Denn Google und Bing haben schnell begriffen, dass die Webseiten mit den besten Domainnamen oft nicht die Webseiten mit der größten Qualität sind und haben in den letzten Jahren ihre Algorithmen konstant angepasst. So ist es inzwischen kein Problem, Webseiten von allen möglichen .tld´s zu ranken, wenn denn der Inhalt gut ist. Und das ist normalerweise unabhängig von Eurem Domainnamen. Doch es gibt Ausnahmen und Details die Ihr beachten solltet:

– Man sollte sich eine Domain gut merken können und auch im Vorbeigehen, einem Kunden oder Interessenten den Domainnamen sagen können, ohne dass es viel Verwechselungspotential gibt. Wenn Ihr jetzt so Worte in der Domain habt separaterreparaturservice oder sonstige Worte die zu Rechtschreibfehlern einladen ist das blöd. Ein guter Domainname sollte kurz und prägnant sein. Zwar hat der Domainname nicht mehr so großen Einfluss auf das Suchmaschinen-Ranking wie heute. Doch spielt es auch eine Rolle wieviele Leser/Benutzer man auf seiner Webseite hat. Und wenn man jetzt einen Domainnamen hat den sich nur ein Superhirn merken kann, dann wird man weniger Traffic bekommen als andere Webseiten, die mehr Besucher bekommen weil a.) es sich um type-in Traffic handelt. Das sind Nutzer die einfach mal einen Domainnamen eingeben und schauen wo sie landen. b.) oder weil einfach zu merkende Domainnamen einfach mehr Besucher ansprechen c.) weil es sich manchmal seriöser anhört. Viele von Euch kennen bestimmt das Phänomen, dass es zum Teil sehr erfolgreiche Webstartups gibt, die einen extrem zwielichtigen oder grenzwertigen Service bieten…aber trotzdem eine Menge Kohle verdienen weil man ja mit einer Keywort Domain seriöser wirkt. d.) Weil es zum Teil die Keywort Dichte erhört und man damit bei Google manchmal relevanter wird. Doch dazu gleich mehr.
Denn die Tatsache dass man seine Keywort-Dichte erhöhrt kann von Suchmaschinen auch negativ ausgelegt werden. Und zwar wenn man durch die Keywort Domain versehentlich eine Überoptimierung vornimmt. Was ich damit meine ist sehr einfach. Google möchte einen natürlichen Seiten- und Textaufbau und keine strickt nach Schlüsselwörtern zusammengeknaubte Texte. Und deshalb merkt sich Google, wie hoch der prozentuale Anteil der Schlüsselwörter auf einer Seite oder der Domain ist. Wenn Ihr zum Beispiel eine Menge doppelte Inhalte/Wörter in der Domain habt, zb. wie 1234567.[de}/1234567/ dann sieht das für Google einfach nach Spam aus und man wird es dadurch schwerer haben zu ranken. Und natürlich spielt der prozentuale Anteil der Haupt-Suchbegriffe auf Eurer Seite eine Rolle, denn stellt Euch mal vor Ihr habt eine Seite, auf der 80 mal das Hauptschlüsselwort vorkommt. Zum Beispiel „Autos“ oder „Reifen“. Suchmaschinen finden das scheiße und werden Euch entsprechend abstrafen.

Also, ich nutze gerne Keywort Domains. Ich sorge aber auch gleichzeitig dafür dass meine Permastruktur der Links keinen doppelten Content enthält. Doppelter Content steht einfach für Worte wie KATEGORIE, oder MONAT, DATUM, usw. Es ist gut eine hohe Keywort-Dichte zu haben aber es gibt Grenzen. Außerdem dürfen die Domainnamen auf keinen Fall irgendwelche Begriffe enthalten, denn dadurch signalisiert Ihr Suchmaschinen dass Eure Webseite unter Umständen Spammig sein könnte.

Als letztes solltet Ihr Euch auch vor Markennamen in acht nehmen. Denn obwohl es Euch vielleicht rein theoretisch helfen könnte, Eure Google Position zu verbessern wenn Ihr Markennamen benutzt…die Rechteinhaber sind zumeist sehr unlustig wenn es um ihre eigentragenen Marken geht. Und das zurecht, denn im Internet gibt es so viele Möglichkeiten Geld zu verdienen. Und da sollte man nicht versuchen von den Markennamen anderer zu profitieren. Also, immer aufpassen damit die vermeintliche „Exact Match Domain“ am Ende nicht eine geschützte Marke ist. Denn es gibt einige Rechteinhaber die vehement ihre Schutzrechte einklagen bzw. täglich irgendwelche WIPO Fälle eröffnen! Und das kann zum Teil sehr teuer sein. Sollte es sich jedoch um einen generischen Begriff handeln, sieht die Welt wieder anders aus. Aber was generisch ist und was nicht muss im Zweifelsfall ein Rechtsanwalt oder Richter entscheiden.

]]>
https://deutschlandseo.de/sollte-man-sich-eine-exact-match-domain-zulegen-oder-nicht/feed/ 0
Basics: Das Erstellen einer Sitemap https://deutschlandseo.de/basics-das-erstellen-einer-sitemap/ https://deutschlandseo.de/basics-das-erstellen-einer-sitemap/#respond Fri, 05 Jun 2015 12:13:05 +0000 https://deutschlandseo.de/?p=462 Basics: Das Erstellen einer Sitemap

Hey Leute, ich weiß dass das für viele von Euch selbstverständlich ist aber für alle die noch nicht damit vertraut sind möchte ich kurz über die Sitemap reden und was das eigentlich ist! Also eine Sitemap ist sozusagen ein Inhaltsverzeichnis Eurer Webseite und damit sagt Ihr Google und anderen Suchmaschinen, welche Teile Eurer Webseite wichtig sind und in welcher Struktur sie aufgebaut sind. Bei einer Sitemap verhält es sich wie bei anderen kleinen Dingen die man tun kann um die SEO seiner Webseite zu verbessern.
In den meisten Fällen wird eine Sitemap als eine .xml Datei erstellt. Und zwar im Hauptverzeichnis Eurer Webseite. Ihr solltet auch größeren Wert auf die Struktur und Organisation Eurer Webseite legen, denn erstens mal erleichtert Ihr damit Google die Arbeit Eure Webseite richtig darzustellen. Und zweitens ist eine gut durchdachte Struktur auch wichtig für Eure Webseitenbesucher. Denn es gibt nur wenige Dinge die das Surfvergnügen so beeinträchtigen wie ein undurchdachtes Menü oder eine chaotische Struktur.
Es gibt übrigens Grenzen was die Größe einer Sitemap betrifft. Insgesamt dürfen nicht mehr als 50.000 URLS in einer Sitemap vorhanden sein. Außerdem darf die Datei allerhöchstens 50 Mb groß sein. Falls Eure Webseite so umfangreich ist, dass dies nicht ausreicht, solltet Ihr die Sitemap in kleinere Sitemaps aufteilen und dann dazu eine Sitemap Indexdatei beilegen.
Falls Ihr mehrere Sitemaps habt, sieht das ganze dann in etwa so aus:

<?xml version=“1.0″ encoding=“UTF-8″?>
<sitemapindex xmlns=“http://www.sitemaps.org/schemas/sitemap/0.9″>
<sitemap>
<loc>http://www.1234567.de/sitemap1.xml.gz</loc>
<lastmod>2015-12-01T13:21:18+00:00</lastmod>
</sitemap>
<sitemap>
<loc>http://www.1234567.de/sitemap2.xml.gz</loc>
<lastmod>2015-11-01</lastmod>
</sitemap>
</sitemapindex>

    sitemapindex: Durch dieses übergeordnete Tag wird die Datei eingeschlossen..
<sitemap>: Durch dieses übergeordnete Tag für jede in der Datei aufgeführte XML-Sitemap genannt-
<loc>: Das steht ganz einfach für den Speicherort der Sitemap
lastmod: Bedeutet ganz einfach das letzte Änderungsdatum und kann auch weggelassen werden!

Falls Ihr Euch mit Sitemaps nicht besonders gut auskennt oder Euch nicht näher damit befassen möchtet, könnt Ihr auch Sitemaps automatisch generieren lassen. Bei WordPress, zu dem ich jedem auch wirklich nur raten kann, gibt es auch sehr gute Plugins die automatisch eine Sitemap oder Sitemaps generieren. Es gibt zum Beispiel auch die Möglichkeit eine Video Sitemap oder eine Bilder Sitemap zu machen, was dann wiederrum bei Google sehr gut ankommt.

Sobald die Sitemap fertig ist bzw. sobald Eure Indexdatei erstellt ist, könnt Ihr sie dann bei Google über die Google Webmasters Konsole einreichen. Im Allgemeinen wird für Euch die Google Search Console, wie Google Webmaster Tools jetzt genannt wird, eine der ersten und wichtigsten Anlaufstellen sein um Eure Seite zu perfektionieren. Heutzutage gibt es so viel Konkurrenz im Internet dass es eine Selbstverständlichkeit für Euch sein sollte, perfekte SEO zu betreiben. Alles andere wird langfristig nicht funktionieren. Und damit meine ich auch, Low Quality Link Building und so Sachen. Denn hier bei Deutschlandseo.de möchte ich keinesfalls irgendwelchen hochriskanten Methoden vorstellen, die die Google Performance nach einem Update im Algorithmus killen kann. Deswegen ist es wichtig, sich selbst auf kleinst Details zu fixieren. Damit meine ich Sitemaps, Favicons und wie sie alle heißen. Ich weiß dass solche Faktoren nur einen klitzekleinen Einfluss auf die Performance haben aber was einem bei Suchmaschinen nicht schadet, sollte man umsetzen.

Wer sich mit dem erstellen von Sitemaps überfordert fühlt, kann auch automatisch mit einem SEO Plugin wie ALL IN ONE SEO arbeiten. Man hat dort auch eine Vielzahl verschiedener Möglichkeiten um die Sitemap zu bearbeiten. Auch erstellt das Plugin automatisch eine Index-Datei, falls Ihr mehr als 50.000 URLS in der Sitemap habt. Außerdem könnt Ihr zum Beispiel so nützlichen Sachen machen wie, die Sitemap oder einzelne Seiten auf No-Index zu stellen. Aber vorsicht, denn da kann man auch eine ganze Menge Fehler machen. Und eine fehlerhafte Sitemap führt sogar manchmal dazu, dass die Seiten nicht indexiert werden. Denn wenn Ihr Sucmaschinen zum einen mit der Sitemap mitteilt, eine gewisse Seite soll indexiert werden und dann aber gleichzeitig die Seite auf No-Index stellt, wird das mit Sicherheit eher negative Folgen haben. Die Sitemap sollte man nur als eine Art Hilfe zur Indexierung für Suchmaschinen sehen.
Doch sollte man eine Sitemap selbst auf No-Index stellen? Gute Frage und gar nicht so einfach zu beantworten. Ich war schon Zeuge von hitzigen Debatten darüber ob man eine Sitemap im Google Index haben will oder nicht. Ihr solltet Euch als Webmaster und Webseitenbetreiber grundsätzlich die Frage stellen, ob eine Webseite oder die Sitemap einen Mehrwert für den Besucher hat oder nicht. Wenn Ihr eine tolle Struktur in Eurer Sitemap habt, könntet Ihr die Sitemap generell auch im Google Index belassen. Denn damit werdet Ihr wahrscheinlich eh nicht ranken. Trotzdem würde ich persönlich eigentlich eher dazu tendieren, die Sitemap auf No-Index aber auf Follow zu stellen. Es kommt jedoch manchmal vor, dass man Inhalte und Seiten nicht in der Hauptnavigation unterbekommt und sie deswegen in der Sitemap hinzufügt. Da könnte es unter Umständen sinnvoll sein die Seite nicht auf No-Index zu stellen. Aber ich denke, das ist nicht wirklich einer der wichtigsten Faktoren die man bei SEO beachten sollte. Es ist wichtig dass man eine richtige Sitemap hat, denn manchmal ist es besser keine Sitemap anstatt einer fehlerhaften zu haben, die dann dazu führt dass die Suchmaschinen Euch den Stinkefinger zeigen.

]]>
https://deutschlandseo.de/basics-das-erstellen-einer-sitemap/feed/ 0
Analyse der Backlinkprofile von Mitbewerbern https://deutschlandseo.de/analyse-der-backlinkprofile-von-mitbewerbern/ https://deutschlandseo.de/analyse-der-backlinkprofile-von-mitbewerbern/#respond Thu, 28 May 2015 08:28:33 +0000 https://deutschlandseo.de/?p=457 Analyse der Backlinkprofile von Mitbewerbern

Ein wichtiger Teil der SEO Arbeit besteht auch darin, die Backlinkstruktur der Konkurrenten und Mitbewerbern zu analysieren. Denn wenn ein Kunde eine Webseite macht, ist es ja schließlich auch das klare Ziel, die Seite auf Google nach vorne zu bringen. Deswegen kann man ja auch mal schauen, was die Konkurrenz so macht und viele SEO Firmen fertigen erstmal eine komplette Analyse der Backlinks von den Seiten der Mitbewerbern an, die auf den ersten paar Seiten von Google zu finden sind. Es gibt eine Vielzahl von Programmen, die eine solche Analyse durchführen und das möchte ich gesondert nochmal in einem anderen Beitrag besprechen. Doch hier geht es darum, ob es wirklich immer sinnvoll ist, sich Backlinks aus den selben Quellen wie die der Mitbewerber zu verschaffen? In einem konkreten Beispiel würde man jetzt die Backlinks der auf Google rankenden Seiten katalogisieren und selbst versuchen, auf diesen Seiten einen Backlink zu bekommen. Und damit meine ich nicht, mit Spam sondern mit Link & Banner Tausch, durch Beantwortung von Fragen in einem Spezialforum, durch Posting in sozialen Gruppen/Seiten, usw.
Und grundsätzlich kann dies durchaus sehr sinnvoll sein und wird in vielen Fällen auch keinen Schaden anrichten. Trotzdem sollte man generell sehr vorsichtig sein, wenn es um Backlinks geht. Denn man kann sehr schnell eine bereits gut rankende Seite killen oder zumindest weiter nach hinten bringen, wenn man sich schlechte Backlinks besorgt. Diese können zum Beispiel Backlinks von Seiten mit schlechter Qualität sein. Auch solltet Ihr Euch vor Einträgen in Directories/Datenbanken grundsätzlich in Acht nehmen, denn meistens sind auf diesen Seiten tausende Links und der Link wird für Euch dann toxisch. Deswegen sollte man bei der Analyse vom Linkprofil der Konkurrenten auch wirklich mit gesundem Menschenverstand beurteilen, ob die Seite des Konkurrenten WEGEN eines bestimmten Backlinks oder TROTZ dessen gut rankt. Jede Seite hat ihre Stärken und Schwächen und was die eine Seite an Backlinks verkraften kann, muss für eine andere nicht auch dasselbe Ergebnis haben. Denn falls Eure Seite zum Beispiel keine perfekten SEO Einstellungen hat, können Euch schlechte Backlinks den Rest geben.

Also, grundsätzlich ist die Analyse der Backlinks der Konkurrenz durchaus sinnvoll. Aber eine Beurteilung der Qualität sollte zwingend erforderlich sein, bevor man einfach versucht das Backlinkprofil des Konkurrenten zu kopieren. Nicht jeder Link ist hilfreich, wie ich ja auch bereits in meinem Posting über toxische Links und wie man sie wieder los wird geschrieben habe. Und genau dieses Prinzip darf auch bei der Analyse der Konkurrenten keinesfalls vergessen werden. Organische Links von seriösen Seiten die keine Linkfarmen sind, sind meistens gut für Euch und deswegen kann man gerne auch mal versuchen, bei Seiten die zu Konkurrenten linken ebenfalls einen Link zu erhalten. Doch es bedarf nur ein paar schlechter Links und Ihr habt die Performance Eurer Seite stark beeinträchtigt und das sollte man tunlichst unterlassen.

]]>
https://deutschlandseo.de/analyse-der-backlinkprofile-von-mitbewerbern/feed/ 0
ENTFERNUNG VON SCHLECHTEN LINKS https://deutschlandseo.de/entfernung-von-schlechten-links/ https://deutschlandseo.de/entfernung-von-schlechten-links/#respond Thu, 28 May 2015 07:43:16 +0000 https://deutschlandseo.de/?p=454 ENTFERNUNG VON SCHLECHTEN LINKS!

Moin Leute, das Thema ist topaktuell und ich werde öfter darauf angesprochen, was man tun soll wenn man schlechte Links hat die auf die eigene Seite zeigen. Der Begriff „schlechte Links“ beinhaltet mehrere Möglichkeiten, die ich jetzt erstmal erklären möchte. Die SEO der letzten Jahre bestand zu großen Teil darauf einfach mit Link Building Software Spam Links auf die Seiten der Inhaber zu setzen, da Googles Algorithmen die Anzahl der Backlinks als einen der wichtigsten Faktoren ansehen. Doch irgendwann, hat dies dazu geführt dass vornehmlich „low quality“ Webseiten für bestimmte Begriffe auf den ersten Seiten bei google zu finden waren waren. Deshalb passte Google seinen Algorithmus an, was dazu führte dass viele Webseitenbetreiber und SEO Leute von einem Tag auf den anderen von Google abgestraft wurden und entsprechend weit nach hinten gestuft oder gar aus dem Index gestrichen wurden. Nur um Euch mal die Größenordnung dieser Backlinkpraxis klar zu machen. An einem gewissen Punkt in den letzten Jahren bestand SEO zu großen Teilen im Backlinkaufbau und manche Seiten haben tausende bis zehntausende Links auf Ihre Seiten gesetzt. Falls Ihr eine WordPress Seite habt, werdet Ihr den Kommentar Spam sicherlich kennen, mit dem solche Links unter anderem gesetzt werden. Die Spammer benutzen Software, die automatisch Sätze erzeugen kann und den Link des Webseitenbetreiber zusammen mit einem Anchor in den Kommentar setzt. Diese „günstigen“  Backlinks kann man heute immer noch überall kaufen und manche SEO Dienste bieten sie immer noch an und wenn Ihr in den letzten Jahren einmal ein Link Building Packet in Anspruch genommen habt, sind die Chancen groß dass Ihr Backlinks habt, die Eure Seite bei Google herabstufen. Man kann diese Links auf allen möglichen Seiten für ein paar Euro kaufen; und genau so billig ist dann auch die Qualität der Backlinks. Oft sind es PR0 (Google Pagerank = Googles Art Webseiten zu bewerten) Seiten, auf denen eine ganze Menge Links zu anderen Webseiten enthalten sind. Man nennt diese Seiten auch Linkfarmen und ich kann jedem nur DEUTLICH davon abraten, solche Backlinks entweder zu buchen oder selbst zu setzen. Denn inzwischen schaut sich Google die Linkstruktur und den Linkaufbau sehr an. Das Linkprofil sollte organisch sein und unnatürlich aufgebaute Backlinks schaden mehr als sie nutzen.

Doch was ist ein unnatürliches Linkprofil?

Das möchte ich Euch einmal an einem Beispiel erläutern. Stellt Euch vor, Ihr benutzt eines dieser Backlinkprogramme und setzt an einem Tag 1000 Backlinks bei einer neuen Seite die Ihr gerade erst eröffnet habt. Google sieht den plötzlichen Anstieg der Backlinks und dann gibt es nur zwei Möglichkeiten. Entweder es handelt sich um ein virales Posting, das sich aber dadurch auszeichnet dass die Leute lange auf Eurer Seite bleiben, nicht sofort wieder die Seite verlassen und auch Eure Seite und einzelne Beiträge häufig in sozialen Netzwerken teilen. Ist dies nicht der Fall, geht Google meistens davon aus, dass die Links unnatürlich enstanden sind. Auch spielt es eine Rolle wie gut die restlichen SEO Einstellungen Eurer Seite sind. Denn, wenn Ihr plötzlich viele Backlinks bekommt und keine Meta Tags, zu lange Titel, keine Beschreibungen, nicht genug Content, Duplicate Content usw. auf der Seite habt, dann ist es natürlich nur logisch dass Euch Google nie im Leben abnimmt, dass die Links organisch entstanden sind. Organisch meint in diesem Sinne, dass echte Leser und Nutzer die Links über einen längeren Zeitraum geteilt haben oder Backlinks auf ihren Seiten hinterlassen haben. Als Beispiel davon, möchte ich so Seiten wie Wikipedia nennen. Alle möglichen Leute teilen Links von dieser Seite. Und zwar ohne erkennbares Muster, mit unterschiedlichen Titeln und unterschiedlich verlinkten Seiten. Das ist ein natürliches Linkprofil und das ist es, auf was es heutzutage bei SEO ankommt. Simple as that. Trifft dies bei Euren Backlinks nicht zu, solltet Ihr toxische Links loswerden. Und zwar schnell. Aber ich möchte gleich eine dicke FETTE Warnung hinterherstellen. Die Beurteilung ob ein Link toxisch ist oder nicht, ist manchmal nicht einfach zu treffen und es kann ganz schnell gehen und Ihr killt sozusagen Eure besten Links, die eigentlich dafür gesorgt haben dass Ihr überhaupt erst rankt.

Ein aktuelles Beispiel von schlechten Links!

Der Grund warum ich diesen Artikel überhaupt erst schreibe, ist dass mich gestern ein Bekannter den ich was SEO angeht unterstütze gebeten hat, mir seine Seite mal anzusehen, nachdem sie in den Google Rankings für den Hauptbegriff plötzlich drastisch abgestürzt ist. Was die Onpage SEO angeht war alles ok, also war schnell klar dass es an schlechten Links liegen könnten. Also habe ich mir eine Liste aller Backlinks der Seite angesehen. Es gibt mehrere Tools und Programme die das können; aber Googles Webmaster Tool / Search Console kann dies auch. Und in der Liste der Backlinks waren plötzlich gut 15 Backlinks von Webseiten aus Holland, die toxisch auf die Google Performance der Seite gewirkt haben. Ich schaute mir also alle Seiten an und es war offensichtlich, dass alle demselben Webmaster gehören. Es handelete sich um ein sogenanntes Directory, also eine Liste von Firmen die irgendjemand ohne Authorisierung angelegt hat um sich selbst als kostenpflichtiges Directory zu etablieren. Ihr kennt doch sicher die Masche, bei der man ständig irgendwelche Faxe bekommen hat, und sich gegen Kosten in irgendeine Scheiß Datenbank eintragen zu lassen, die eh kein Schwein liest. So in der Art müsst Ihr Euch das vorstellen. Diese Seiten enthalten Tausende bis Zehntausende Links und sind dann oft auch mit Affiliate Links oder Ads vollgestopft und an der Grenze zur Seriösität. Es sind also keine Seiten, die man im Backlinkprofil haben möchte. Dieses Beispiel macht klar, wie wichtig eine regelmäßige Kontrolle der Backlinks inzwischen ist. Denn es gibt keine Gesetze die Menschen mit schlechten Webseiten davon abhalten, auf Euch zu linken. Und das ist auch ein kleiner Schwachpunkt bei Google. Das ging sogar so weit, dass Firmen versuchen, Ihre Konkurrenten mit schlechten Backlinks aus Google zu bekommen . Und wenn man da nicht aktiv reagiert und den Konflikt sucht/die Links versucht entfernen zu lassen, wird Eure Seite im Niemandsland verschwinden. Also Linkfarmen sind zum Beispiel toxische Links; oder Links von enttarnten Blognetzwerken können sobald Google die Netzwerke entdeckt hat ruck zuck gefährlich werden. Auch kann man heutzutage nicht mit mit weißer Schrift auf weißem Hintergrund Google austricksen, denn diese Masche funktioniert schon seit einigen Jahren nicht mehr und wer Euch etwas anderes erzählen will wird früher oder später eines besseren belehrt werden. Also, was sind schlechte Links? Benutzt einfach Euren gesunden Menschenverstand. Wenn eine Zeite einen geringen Trust Score hat, tausende Pop-Ups oder Unmengen Links auf einer Seite haben, liegt der Verdacht nahe dass Euch die Links schaden können. Es gibt dazu Ausnahmen und eine Beurteilung der Links sollte von einem Profi durchgeführt werden.

Was sollte man tun wenn man plötzlich toxische Backlinks hat?

Solltet Ihr plötzlich eine große Schwankung in Euren Google oder Bing Rankings haben, dann kann es zum Beispiel an schlechten Backlinks liegen. Als erstes solltet Ihr also eine Liste der Backlinks anfertigen. Dann würde ich Euch raten, die Liste auszudrucken und jeden der Links zu besuchen und eine manuelle Bewertung durchzuführen. Ich kann verstehen dass das für viele Leute die früher tausende Backlinks auf ihre Seite geblasen haben und die jetzt merken dass es die Seite gekillt hat eine Menge Arbeit bedeutet. Aber das ist der einzige Weg um diesem Problem zu entgegegnen. Es gibt jedoch auch Firmen, die diese Dienstleistung anbieten. Jedenfalls versucht Ihr die schlechten Links zu finden und schreibt jeden der Webmaster an. Freundlich aber trotzdem bestimmend. Aber trotzdem gilt; unbedingt freundlich bleiben denn der Webmaster ist eigentlich zu gar nichts verpflichtet und wenn er Eurer Bitte nicht nachkommt, dann könnt Ihr dagegen auch erstmal nichts machen.

Nun, da aber Google inzwischen auch bekannt ist, dass es viele Firmen gibt die von Mitbewerbern schlechte Links untergeschoben bekommen (oder eben auch weil es bestimmte Directories gibt die wahllos auf andere Seiten verlinken um ihre eigene Position zu verbessern), hat Google vor einigen Jahren das Disavow Tool ins Leben gerufen. Damit könnt Ihr selbst schlechte Links manuell abwerten, wenn Ihr der Meinung seid dass Euch die Links schaden. Wer massiv Links zu seiner Seite gesetzt hat, sollte jedoch vorsichtig sein denn es ist durchaus möglich dass Google dann manuell Eure Seite prüft und Euch eventuell sogar noch eine manuelle Strafe aufdrückt. Deswegen ist der erste Weg, die Webmaster der Seiten anzuschreiben und zu bitten, die Links zu entfernen. Wie gesagt, es ist manchmal nicht einfach zu beurteilen, welche Links toxisch wirken und welche nicht. Benutzt Euren Menschenverstand und seid vorsichtig, denn ich kenne einige Webmaster die damit wichtige und organische Backlinks entfernt haben. Sollte Eure Seite aber, so wie die Webseite die ich gestern geprüft habe, ohne Eigenverschuldung in der Suchmaschine durch schlechte Backlinks beeinträchtigt sein und Ihr die schlechten Links nicht vom Webmaster entfernt bekommt, dann solltet Ihr das Google Disavow Tool benutzen.

https://www.google.com/webmasters/tools/disavow-links-main

Als erstes müsst Ihr dann eine Liste der schlechten Links anfertigen. Das Format sollte wie hier sein: http://1234567.de (das ist keine Spamseite, nur ein Beispiel der Formatierung). Eine Domain pro Reihe. Die Datei speichert Ihr dann als .txt Datei. Es gibt entweder die Möglichkeiten, einzelne Seiten (zb.http://1234567.de/trolololo.html) oder gleich die ganze URL abzuwerten. Ich kann Euch dazu nur den Tip geben: Wenn Ihr die Wahl habt, wertet gleich die ganze URL ab wenn es sich um eine unseriöse Seite handelt. Denn manchmal braucht man halt einen Hammer um den Job zu erledigen. Natürlich solltet Ihr genau schauen was das für eine Seite ist. Wenn jetzt jemand von einem WordPress Blog zu Euch Linkt, dann solltet Ihr auf keinen Fall die ganze wordpress.com URL abwerten. Die Abwertung sollte wirklich nur auf unseriöse Seiten begrenzt sein, denn nur weil der Text oder Inhalt eines Backlinks doof oder automatisch von Spinner Programmen geschrieben ist, muss er noch lange nicht toxisch sein. Also, die Liste wird als .txt gespeichert und beim Disavow Tool hochgeladen. Damit hat sich das ganze dann meistens erledigt. Google garantiert gar nichts und es kann manchmal sogar Wochen dauern bis Eure Seite sich sichtbar erholt hat (oder vielleicht auch gar nicht wenn Google die Abwertung nicht akzeptiert weil sie vielleicht glauben, Ihr hättet die Links selbst gesetzt) aber grundsätzlich ist das der richtige Weg um damit umzugehen. Solltet Ihr zum Beispiel von einem Mitbewerber massiv angegriffen werden, würde ich Euch auch raten Euch an die Spam Abteilung von Google zu wenden und die Leute dort zumindestens mal darauf aufmerksam zu machen. Denn, das kann eigentlich nicht schaden, obwohl es auch oft nichts bringt.

In meinem konkreten Fall gestern, ist die Seite für den Hauptbegriff zum Beispiel „Schlitten“ innerhalb eines Tages von der ersten Seite auf die 20ste Seite abgestürzt. Nachdem ich die Links abgewertet habe, war die Seite heute wieder zurück auf der ersten Seite! Also, gute SEO (und dazu zählt auch eine genaue Kontrolle der Backlinks) ist Geld wert! Wenn Ihr SEO macht, dann seid Euch dessen bewusst dass gesetzte Backlinks nach einem Google Update zu einer Katastrophe werden können. Denn ein Link ist schnell gesetzt, doch manchmal sehr schwer wieder zu entfernen. Vor allem, wenn der Backlink automatisch durch ein Link Building Programm geschaffen wurde.

]]>
https://deutschlandseo.de/entfernung-von-schlechten-links/feed/ 0
Die besten WordPress Plugins zur SEO Optimierung : ALL IN ONE SEO https://deutschlandseo.de/die-besten-wordpress-plugins-zur-seo-optimierung-all-in-one-seo/ https://deutschlandseo.de/die-besten-wordpress-plugins-zur-seo-optimierung-all-in-one-seo/#respond Wed, 27 May 2015 08:45:17 +0000 https://deutschlandseo.de/?p=452 SEO: die besten WordPress Plugins zur SEO Optimierung

Hey Leute, da WordPress eines der am häufigsten genutzen Softwares ist, gibt es eine Unmenge an nützlichen Plugins, die man kostenlos oder auch als Premium Version bekommen kann. Ich möchte in diesem Beitrag ein paar Plugins nennen, die ich persönlich für sehr nüzlich halte. Es gibt jedoch auch eine ganze Menge zusätzlicher SEO Programme, die kostenpflichtig sind. Manche davon sind super; andere hingegen kann man sich sparen bzw. bieten sie nur Sachen die andere SEO Plugins auch können. Und in diesem ersten Teil der Serie über die besten SEO Plugins möchte ich auch gleich den Klassiker unter den SEO Programmen erwähnen.

1. ALL IN ONE SEO Pack-

Der Name ist Programm. ALL IN ONE SEO bietet eine ganzer Menge Möglichkeiten an Eurer WordPress Seite Optimierungen durchzuführen. Zum Umfang des Plugins gehören zum Beispiel automatisch generierte Meta Tags, No-Index Funktion für Seiten, Produkte und Postings. Diese No-Index Funktion ist zum Beispiel sehr gut für Amazon Affiliate Seiten, da Google normalerweise eine Webseite mittels Algorithmus automatisch herunterstuft, sobald Affiliate Links oder Duplicate Content auf der Seite zu finden sind. Deswegen kann man mit diesem Programm einstellen, dass alle Produkte nicht in den Google Index aufgenommen werden und somit auch nicht Eure Google Performance nach unten ziehen. Die automatisch generierten Meta Tags sind auch ein großer Vorteil des Plugins, obwohl ich eigentlich eher dazu rate, die Meta Tags von Hand zu machen um eine volle Kontrolle über die Schlüsselwörter zu haben. Auch könnt Ihr mit ALL IN ONE SEO auch entscheiden, ob Ihr entscheiden, ob Ihr Fotos, Kategorien, Variationen, Anhänge oder so Seiten wie die Kontaktseite oder das Impressum überhaupt indexiert werden sollen. Denn meistens ist der auf diesen Seiten zu findende Text auch bereits auf einer Vielzahl anderer Seiten enthalten (AGB, Datenschutzerklärung) weshalb man solche Seite grundsätzlich nicht indexieren sollte. Auch kann man damit versuchen, seine Email Adresse oder persönliche Daten nicht jedem Spammer im Internet zugänglich zu machen.

– Performance:

Mit diesem Punkt könnt Ihr weitreichende Einstellungen an Eurer Webseite vornehmen. So könnt Ihr zum beispiel den Speicher Eurer Seite erhöhren, damit sie besser läuft. Das kann man vor allem auch dann machen, wenn die Seite zu lange lädt. Denn das ist bei Google ein wichtiger Einflussfaktor für das Google Ranking. Seiten die kürzere Ladezeiten haben, bekommen mehr Traffic durch Google. Zum einen weil die Seiten auch weniger Leute haben die die Seite gleich wieder verlassen, weil sie zu lange lädt. Zum Anderen aber auch weil dieser Punkt in den Google Algorithmen auch mitbewertet wird. Es gibt bestimmte Plugins, mit denen Ihr Euren Pagespeed messen könnt und auch bremsende Scripte und Bilder ausfinding machen könnt. Doch darüber schreibe ich später noch mehr.

-XML SITEMAP:

Damit könnt Ihr eine Sitemap der Seite machen, und sie auch direkt an Google und Bing senden. Webseiten die über eine Sitemap verfügen, ranken bei Google besser. Damit kann der Google Bot oder Bing Bot Eure Seite besser katalogisieren, was durch die Algorithmen der Suchmaschinen dann bevorzugt wird.

SOCIAL META

Bei Social Meta könnt Ihr Eure Daten ändern, die mit sozialen Netzwerken zu tun haben. Damit meine ich zum Beispiel die „SHARE“ Einstellungen. Wenn jemand einen Beitrag in soziale Netzwerke postet, könnt Ihr genau beeinflussen welche Bilder gezeigt werden sollen oder wie die Titel standardmäßig aussehen sollen. Ihr könnt dort auch ein generelles Seitenfoto einstellen, dass dann immer auf den sozialen Netzwerken in der Vorschau gezeigt wird. So könnt Ihr genau einstellen, wie Eure Seite geteilt werden soll. Dazu zählen auch so Sachen wie Twitter Cards, über die ich demnächst nochmal gesondert schreiben möchte.

Robots.txt

Die Robots.txt ist eine Datei die auf Eurem Server automatisch gebildet wird, falls sie nicht von Euch selbst angelegt wird. Diese Robots.txt ist brandgefährlich für Leute die sich damit nicht auskennen, denn Ihr könnt damit die Seite oder bestimmte Teilbereiche für Bots oder Besucher sperren. Und falls Ihr jetzt versehentlich Eure Seite für Suchmaschinenbots sperrt, werdet Ihr nicht auf Google zu finden sein. Dies kann auch zum Beispiel passieren, indem aus irgendwelchen Gründen die Robots.txt geändert wird, so dass Eure Seite plötzlich von einer sehr gut rankenden Seite zu einer die nichtmal in Google zu finden ist werden kann. Deswegen, immer vorsichtig mit der Robots.txt sein. Ich werde über Möglichkeiten die Robots.txt zu bearbeiten noch gesondert schreiben. Aber das ist kompliziert und am besten ist, Ihr lässt das Ganze außer Acht, wenn Ihr Euch damit nicht auskennt. Ich hatte neulich einen Fall, als mich jemand gebeten hat seine Seiten anzusehen, weil er keinen Traffic von Suchmaschinen bekam. Und als ich mir die Seiten genauer angesehen habe, bin ich aus allen Wolken gefallen. Denn aus irgend einem Grund hatte sich von alleine eine Robots.txt gebildet, die Google und Bing komplett aussperrte und es dauerte Monate bis dieser Schaden behoben wurde. Wenn Ihr Eure Robots.txt testen möchtet, könnt Ihr das mit diesem Plugin tun. Auch könnt Ihr Eure Robots.txt in Google Webmaster Tools ansehen und bekommt eine Meldung, falls Google keinen Zugriff hat.

FILE EDITOR

Mit dem File Editor könnt Ihr ebenfalls Eure Robots.txt und die .htaccess Datei bearbeiten. Die htaccess Datei funktioniert ähnlich wie die Robots.txt. Und auch sie ist brandgefährlich, denn damit könnt Ihr Ruck Zuck Eure Seite für jeden Besucher, Euch einschließlich, sperren. Damit werden nämlich die Zugriffe auf die Webseite beschränkt. Richtig gemacht, kann man damit ein Verzeichnis oder einzelne Dateien vor unberechtigtem Zugriff schützen. Falsch gemacht, sperrt Ihr Euch im Extremfall sogar selbst aus. Also vorsicht!

IMPORTER/EXPORTER

Damit könnt Ihr sehr einfach Eure Einstellungen speichern und später wieder laden. Auch könnt Ihr damit die Einstellungen von einer Installation zur anderen Importieren, so dass Ihr nicht jedesmal die manchmal sehr komplexen SEO Einstellungen neu machen müsst.

Video Sitemap

Wie der name schon sagt, ist die Video Sitemap eine besondere Art der Sitemap, die ausschließlich Videos enthält. Vor allem Seiten die sehr viel mit Videos machen, können dieses Feature gut gebrauchen. Ihr könnt hier wie bei der normalen Sitemap alles machen, was benötigt wird, zum Beispiel Google oder Bing über neue Videos informieren und aktuelle Versionen der Sitemap hochladen.

FEATURE MANAGER

Damit könnt Ihr zum Beispiel bestimmte Teile des Plugins ein und ausschalten. Zum Beispiel falls Ihr Euch nicht mit so Sachen wie der Robots.txt oder der .htaccess Datei befassen möchtet. Auch ist es nützlich, falls Ihr ein anderes Plugin für die Sitemap benutzen möchtet oder sie vielleicht sogar manuell machen wollt. Im Fall von Sitemap Konflikten könnt Ihr dann zum Beispiel das SITEMAP Feature ausschalten.

Also, insgesamt ist das ALL IN ONE PACK ein ausgezeichnetes SEO Plugin, das es sowohl in der Free als auch in der Pro Version gibt. Ich kann Euch aber nur zur Pro Version raten, denn das Plugin wird regelmäßig geupdatet und hat deswegen für den relativ geringen Preis einen sehr großen Nutzen. Es gibt natürlich noch weitere SEO Plugins, die ich in den nächsten Postings besprechen möchte.

]]> https://deutschlandseo.de/die-besten-wordpress-plugins-zur-seo-optimierung-all-in-one-seo/feed/ 0