Suchmaschinenoptimierung

Dienstag, 15. Mai 2018

B2B- und B2C-SEO: Wo liegen die Unterschiede? (Teil 1)

von Simone Madre

 

Beim Vertrieb von Konsumgütern ist das Thema Suchmaschinenoptimierung, kurz SEO, fast schon ein alter Hut. Bereits Mitte der Neunziger versuchten Unternehmen, ihre Website durch die geschickte Wahl von Seitentiteln nach vorne zu bringen. Mittlerweile sind die Methoden deutlich ausgefeilter, und selbst kleine Einzelhändler besitzenoftmals eine SEO-Strategie. Die Gründe dafür leuchten ein: Im Netz lassen sich bequem Läden und Dienstleistungen suchen, Produkte vergleichen und meist direkt bestellen. Als Anbieter bei B2C-Geschäften (Business-to-Consumer) online schlecht auffindbar zu sein, wird immer mehr zum Wettbewerbsnachteil.

Als deutlich zaghafter beim Thema SEO zeigte sich bislang der Investitionsgütermarkt. Traditionellerweise stützt sich die Kundengewinnung bei Business-to-Business-Märkten stark auf Weiterempfehlungen bisheriger Geschäftspartner, Messen und Veranstaltungen, Artikel und Anzeigen in Print-Zeitschriften sowie persönliche Kontakte. Mittlerweile beantworten aber auch immer mehr B2B-Unternehmen die Frage „Brauchen wir SEO?“ mit einem klaren „Ja!“. Und das aus gutem Grund. Denn auch hier wird die Website als Informationsquelle und Kommunikationskanal immer wichtiger. Durch SEO kann man sich zudem einen Vorsprung zur Konkurrenz verschaffen – vor allem dann, wenn diese noch keine Optimierungsmaßnahmen betreibt.

Warum SEO sich auch für B2B-Geschäfte und Investitionsgüter lohnt

Zugegeben: Sonderlich gut ist die Bedeutung von Suchmaschinen und Websites in B2B-Geschäften nicht erforscht. Es fehlen groß angelegte Untersuchungen von unabhängigen Köpfen. Aber die Zahlen, die vorhanden sind, gehen ganz klar in eine Richtung.

Bereits 2012 nutzten laut der Studie eines Internetdienstleisters mit 317 Teilnehmern mehr als neun von zehn B2B-Kunden mindestens einmal täglich Onlinequellen, um sich über mögliche Anbieter zu informieren und gegebenenfalls direkt Produkte zu kaufen. Zudem hatten 94 Prozent der befragten Unternehmen innerhalb der zurückliegenden drei Monate mindestens dreimal online Aufträge vergeben. Darunter fanden sich bei knapp einem Viertel der Firmen sogar Investitionen, die einen Wert von 10.000 Euro überstiegen.

Eine weitere Untersuchung zum Thema stammt von der englischen Marktforschungsagentur McCallum Layton Research (heute Allto Consulting) und wurde 2014 unter 211 Business-Entscheidern durchgeführt. Sie ergab, dass die meistgenutzte Informationsquelle von B2B-Entscheidern die Website potentieller Lieferanten ist, deutlich vor den Empfehlungen von Kollegen oder dem Gespräch mit einem Vertriebsmitarbeiter.

2015 veröffentlichten Google und Roland Berger eine gemeinschaftliche Studie, für die sie immerhin knapp 3.000 deutsche Verkaufsmanager befragt hatten.

Zwei wesentliche Fakten daraus:

Wenn ein Entscheider zum ersten Mal einen Vertriebsmitarbeiter kontaktiert, sind 57 Prozent des Kaufprozesses bereits gelaufen. Das bedeutet: Wer nicht von Anfang an im Rechercheprozess sichtbar ist, hat es schwer, überhaupt mit potentiellen Kunden ins Gespräch zu kommen.

In Deutschland sind bereits über 40 Prozent der Mitarbeiter, die Entscheidungen beeinflussen, unter 35 Jahre alt. Sie gehören also zu den sogenannten „Digital Natives“, die sich im Internet wohlfühlen und Technologien intuitiv nutzen.

Wer im Netz nicht auffällt, kann also Probleme dabei haben, in der engeren Auswahl von B2B-Einkäufern zu landen. Anzunehmen ist, dass sich dieser Effekt noch verstärkt, wenn weitere Digital Natives auf Entscheidungspositionen nachrücken. Bereits jetzt zu optimieren, lohnt sich zudem stärker, als dies erst später zu tun: Da sich in vielen Nischen abseits des Massenmarktes nochwenige optimierten Seiten finden, kann man mit vergleichsweise geringem Aufwand Top-Platzierungen erreichen. Ziehen die Mitbewerber dann nach, ist das Wahrender eigenen Position deutlich einfacher, als sich durch SEO-Maßnahmen erst an die Spitze kämpfen zu müssen.

Auch im Maschinenbau setzen Unternehmen mehr und mehr auf SEO.

B2B und B2C: Unterschiede im Kaufprozess

Allerdings ist Vorsicht geboten: Nicht alle Methoden aus dem klassischen B2C-SEO lassen sich übernehmen. Da sich Marktstrukturen und Kaufprozesse deutlich voneinander unterscheiden, legen Suchmaschinen wie Google Wert auf andere Faktoren. Zudem wollen die Kunden, sobald sie auf die Website gelangt sind, auf eine spezifische Weise über Produkte und Dienstleistungen informiert werden.

B2C: Kunden wollen sich möglichst rasch informieren

  • Große Zielgruppe, meist Massenmarkt
  • Eher rasche Kaufentscheidung, teilweise Impulskäufe
  • Meist nur ein Entscheider
  • Umsatz wird über Masse an Kunden generiert
  • Vergleichsweise einfache Produkte mit wenig Erklärungsbedarf

Ein typischer Kaufprozess sieht hier so aus: Der Nutzer sucht bei Google nach einem bestimmten Begriff und klickt sich durch eine oder mehrere der bestplatzierten Seiten. Dabei vergleicht er Produkte, legt schließlich etwas in den Einkaufswagen und zahlt.

Demnach ist die Onlinemarketing-Strategie etwa folgende: die Seite gut auffindbar machen, den Besucher durch eine attraktive Gestaltung direkt zum Kauf bewegen oder ihn zumindest zum Wiederkommen veranlassen.

 

B2B: Vertrauens- und Reputationsaufbau ist Trumpf

  • Kleine Zielgruppe, großer Teil des Marktes ist bekannt
  • Oftmals langwierige Kaufentscheidungen, die Wochen und Monate, teilweise sogar Jahre in Anspruch nehmen können
  • Häufig mehrere Entscheider
  • Umsatz über wenige, große Aufträge
  • Komplexe Produkte mit hohen Kosten und Beratungsbedarf

Bei B2B-Geschäften, besonders bei Investitionsgütern, hat eine Kaufentscheidung typischerweise eine größere Tragweite und birgt ein größeres Risiko als bei B2C-Anschaffungen. Die Produkte sind teuer, werden lange eingesetzt und bringen unter Umständen Folgekosten durch Wartungen und Instandhaltungen mit sich. Außerdem sollen sie sich für das Unternehmen möglichst stark rentieren. Oftmals bindet sich eine Firma über den Kauf hinweg an den Anbieter, weil man beispielsweise an allen PCs die gleiche Software einsetzen will. Oder weil der Maschinenpark auf eine bestimmte Marke umgestellt werden soll, damit die Mitarbeiter leichter zwischen den Maschinen wechseln können.

Folglich wollen die Entscheider das Kaufrisiko minimieren, indem sie sich eingehend über Produkte und Alternativen informieren. Der Rechercheprozess sieht meist etwa so aus: Ein Nutzer erstellt anhand einer Google-Suche und bereits bekannten Zulieferern eine Liste mit möglichen Geschäftspartnern, sucht on- und offline nach Informationen und reduziert die Auswahl so auf wenige Kandidaten, von denen er Angebote einholt. Mehrere Mitarbeiter vergleichen diese schließlich, verhandeln mit den Firmen und entscheiden sich zu guter Letzt für einen Anbieter.

Informieren und beraten

Gefunden zu werden ist hier nur der Anfang. Es geht darum, sich als Unternehmen darzustellen, das auch komplexe Anforderungen überzeugend löst. Wenn der potentielle Kunde Vertrauen fasst, dann ist bereits viel gewonnen. Der Anbieter muss also umfängliche Informationen zur Verfügung stellen, aber gleichzeitig auch kompetent beraten und zum Beziehungsaufbau einladen. Greift der Entscheider schließlich zum Telefon oder schickt eine Anfrage ab, dann hat das Unternehmen einen Fuß in der Tür und kann im persönlichen Gespräch weiter vom Produkt überzeugen.

In Teil 2 des Blogbeitrags geht es um die konkreten Unterschiede in der Keywordauswahl, dem Linkaufbau und dem Tracking.

Kann man SEO-Ratgebern trauen?

Donnerstag, 15. Februar 2018

Woher Suchmaschinenoptimierer ihr Wissen nehmen

von Simone Danne

Die Optimierung von Webauftritten für Suchmaschinen, kurz SEO, ist im Netz ein großes Thema. Immer wieder sehe ich Blogartikel mit Schlagzeilen wie „Alles über SEO“ oder „Mit SEO in 5 Schritten bei Google auf Platz 1“. Zum Jahreswechsel waren dann Titel wie „SEO: Was Sie 2018 wissen sollten“ oder „SEO 2018 – die Jahrestrends“ ganz groß in Mode. Solche Überschriften versprechen viel und erwecken teilweise den Eindruck, Suchmaschinenoptimierung sei ein glasklares Geschäft – zumindest für die „Eingeweihten“, die jene Artikel verfassen.

Tatsächlich können derartige Texte dabei helfen, im schnelllebigen Geschäft der Online-Kommunikation nicht den Anschluss zu verlieren. Immer wieder ändern Suchmaschinenanbieter ihre Algorithmen; gleichzeitig wandeln sich die Nutzungsgewohnheiten der Surfer, während auf technischer Seite neue Websiteformate und Gestaltungsmöglichkeiten hinzukommen. Sich regelmäßig zu informieren ist also sinnvoll, und die meisten Inhalte hierzu finden sich wohl auf SEO-Blogs.

Was deren Autoren allerdings nicht immer verraten, ist, woher sie ihr Wissen haben. Warum sollte man ihnen glauben? Was ist dran an ihren Berichten und wie viel ist nur Gerücht?

Um sich im Blogdschungel gut zurechtzufinden und die wirklich relevanten Informationen für die eigene Optimierungsarbeit zu ergattern, sollte man sich erst einmal in Erinnerung rufen, welches die wesentlichen SEO-Informationsquellen sind: einmal die Auskünfte des Suchmaschinenbetreibers selbst, hier am Beispiel vom Platzhirsch Google, dann (wissenschaftliche) Untersuchungen, die typischerweise von SEO-Firmen durchgeführt werden, und die Erfahrungswerte oder das „Bauchgefühl“ von Suchmaschinenoptimierern.

Google als SEO-Wissensquelle: Grundlegende Informationen zur Website-Optimierung

Informationen, die Google selbst veröffentlicht, liefern vielleicht keine großen Geheimnisse oder den einen Tipp, mit dem eine Seite ganz schnell an die Spitze der Trefferliste rückt. Dafür kann man sie in jedem Fall als zuverlässig einstufen. Wie die Google-Algorithmen exakt funktionieren, hält der Konzern natürlich geheim. Dafür gibt er über verschiedene Kanäle Informationen für SEO-Experten und Websitebetreiber heraus.

Eine sinnvolle Einstiegslektüre für Neulinge ist der Startleitfaden zur Suchmaschinenoptimierung von Google, der Grundlagen und Best Practices knapp schildert. Aktuelle Informationen, sowohl für Einsteiger als auch Fortgeschrittene, liefert beispielsweise der Webmaster Central Blog. Hier berichten Mitarbeiter über anstehende oder bereits durchgeführte Änderungen in den Algorithmen und geben Tipps zur Anpassung von Websites, beispielsweise an die Mobile First-Indexierung. Ein zweiter Google-Blog in englischer Sprache ist Search. Hier liegt der Schwerpunkt nicht direkt bei SEO, sondern auf der Nutzersuche. Von Trendbegriffen aus dem vergangenen Jahr über Änderungen in der Gestaltung der Suche finden sich immer wieder potentiell relevante Informationen für die Websiteoptimierung.

Sehr bekannt und wohl eine der wichtigsten Google-Quellen ist der Webmasters-Kanal auf YouTube. Hier beantworten Google-Mitarbeiter spezifische Fragen zur Websitegestaltung und zur Weiterentwicklung des Algorithmus. Damit ist der Kanal quasi ein Muss, um beim Thema Google-SEO auf dem neuesten Stand zu bleiben.

Die (begrenzte) Aussagekraft von SEO-Studien

So viele nützliche Informationen Google auch preisgibt: Wenn man hinter den Vorhang sehen will, muss man aus anderen Quellen schöpfen. Natürlich kann dem Konzern nicht daran gelegen sein, die Funktionsweise seiner Algorithmen vollständig oder auch nur zu einem Großteil aufzudecken.

Eine wichtige Zweitquelle sind deshalb Korrelationsstudien, die meist von SEO-Agenturen und -Softwareanbietern durchgeführt werden. Typischerweise werden dabei Suchergebnisseiten für eine ganze Reihe an Keywords betrachtet, anschließend wird nach Mustern gesucht.

Wie findet man sich zurecht bei den unzähligen, zum Teil sogar widersprüchlichen SEO-Ratschlägen im Netz? Korrelationsstudien können dabei helfen.

Prinzipiell geht es um die Frage, wie sich die Top-Ergebnisse von schlechter platzierten Seiten unterscheiden. Das klingt erst einmal hervorragend, eine klare Antwort lässt sich so nur leider nicht finden. Bedingt wird das durch die Grenzen des Verfahrens an sich. Eine Korrelation, also ein statistischer Zusammenhang zwischen mehreren Merkmalen, bedeutet nicht, dass sich diese Merkmale auch gegenseitig bedingen (Kausalität).

Insbesondere, wenn so viele unterschiedliche Einflüsse zusammentreffen wie bei der Betrachtung von zig Webseiten, lassen sich keine klaren Rückschlüsse ziehen. Trotzdem sind Korrelationsstudien die beste Informationsquelle, die wir haben, um die Gesamtheit der Rankingfaktoren zu ergründen.

Entsprechende Whitepaper gibt es von verschiedenen Anbietern: Searchmetrics, ein Entwickler von SEO-Tools, bietet auf seiner Website beispielsweise aktuelle Korrelationsstudien für verschiedene Branchen (PDF nach  Registrierung). Toolanbieter Semrush hat eine Korrelationsstudie mit 17 Faktoren erstellt (PDF ebenfalls nach Registrierung), die Kurzfassung gibt es auf ihrer Website.

Auch vom Marketing-Blog Backlinko und Partnern gibt es entsprechende Daten, allerdings stammen diese aus dem Jahr 2016.

Erfahrung und Bauchgefühl von Suchmaschinenoptimierern als Quelle

Neben Studien und Google-Veröffentlichungen wird noch eine weitere Informationsquelle gern von SEO-Bloggern angeführt: Erfahrungswerte aus bisherigen Projekten oder auch das eigene „Bauchgefühl“. Auch das kann wertvolle Tipps und Hinweise liefern – wenn es sich beim Autor um einen kompetenten, seriös arbeitenden Optimierer handelt. Also um jemanden, der sich auf SEO spezialisiert hat und die Rankings von Kundenseiten mit seinen Methoden wahrnehmbar und langfristig verbessert. Nur leider lässt sich das vonseiten des Lesers nicht unbedingt ermitteln. Dann sollte man zumindest ein dickes Fragezeichen hinter die Erkenntnisse, Tipps und Tricks des SEO-Bloggers setzen.

Fazit: Wie lassen sich SEO-Informationsquellen bewerten?

Letztlich sind meiner Meinung nach bei der Bewertung neuer SEO-Strategien folgende drei Aspekte wichtig:

  • Quellen und Belege suchen und hinterfragen
    Ein guter SEO-Artikel nennt Quellen und belegt, warum Annahmen getroffen werden. Außerdem macht er klar, an welchen Stellen es sich lediglich um Annahmen handelt. Sind Studien zitiert, sollte der Leser deren Aufbau und die Art der Informationsgewinnung unter die Lupe nehmen. Nicht alles, was einen wissenschaftlichen Anstrich hat, liefert auch belastbare Ergebnisse. Und nicht alle belastbaren Ergebnisse lassen sich auf die eigene Situation übertragen. Ein Beispiel: Wie eine gute Webseite aussieht, ist heutzutage vermutlich unter anderem von der Branche abhängig – was für einen Finanzratgeber empfehlenswert ist, muss nicht gut für einen Maschinenbauer sein.
  • Nicht jeder Trend ist die Mühe wert
    Es lohnt sich nicht, jedem Trend hinterherzulaufen. Dass ein Blogger eine Optimierungsstrategie über den grünen Klee lobt, bedeutet noch nicht, dass diese bei der eigenen Homepage einen messbaren Effekt erzielen würde. Wenn an einer anderen Stelle ein gravierender Fehler vorliegt, etwa die Antwortzeit des Servers extrem lang ist oder ein unseriöses Backlinkprofil besteht, dann bringt selbst der beste Ratschlag zur Website-Strukturierung nichts. Und wenn der Tipp an sich bereits schlecht ist, beispielweise weil mit dubiosen Mitteln gearbeitet wird, dann kann das Ergebnis sogar eine Abstrafung durch Google sein. Wichtiger als die Umsetzung vieler neuer SEO-Ideen ist es daher, erst einmal ein solides Fundament zu schaffen.
  • Google-Wissen bleibt die Grundlage
    Für diese Basis sollten die Informationen zum Algorithmus genutzt werden, die Google selbst uns zur Verfügung stellt. Wichtige Schlagworte sind hier ein nützlicher und einzigartiger Content, eine gute Bedienbarkeit, besonders auch an Mobilgeräten, und eine regelmäßige Pflege der Seite: eben alles, was beim Besucher für Zufriedenheit sorgt. Die Suchmaschine arbeitet kontinuierlich daran, solche Inhalte zu identifizieren und wird besser und besser darin. Zudem sollte auf alles verzichtet werden, was gegen die Google-Qualitätsrichtlinien verstößt. Damit ist man als Optimierer auf der sicheren Seite.

Blablameter – ein Heißluftdetektor wird vier Jahre alt

Dienstag, 01. März 2016

von Simone Danne

yada-yada-222767_640

Hohle Phrasen, aufgeblähte Sätze, unnötig komplizierte Satzstrukturen: Manche Texte sind einfach nur unangenehm zu lesen. Wissenschaftler versuchen, sich mit Fremdwörtern und Bandwurmsätzen zu schmücken, Politiker reden um den heißen Brei herum, und Werber – nun ja, darüber wurde sich auf diesem Blog ja schon häufiger beklagt. Ein Webentwickler hatte vor mehr als vier Jahren genug. Seine Lösung: Er entwickelte eine Internetseite, die überflüssiges Wortgeklingel auf einen Schlag aufdeckt – den Blablameter.

Die Website ist simpel aufgebaut: Text einfügen, auf „Testen“ drücken, und schon erscheint ein Indexwert und eine passende Botschaft.

Die kann so aussehen…

„Ihr Text zeigt schon erste Anzeichen heißer Luft. Für Werbe- oder PR-Sprache ist das noch ein guter Wert, bei höheren Ansprüchen sollten Sie vielleicht noch ein wenig daran feilen.“

… oder bei schlechteren Texten auch einmal so:

„Sie müssen PR-Profi, Politiker, Unternehmensberater oder Universitätsprofessor sein! Sollten Sie eine echte Botschaft transportieren wollen, so erscheint es fraglich, ob diese Ihre Leser auch erreicht.“

Über die genaue Funktionsweise seines Algorithmus bewahrt der Webentwickler Bernd Wurm natürlich Stillschweigen. Er verrät aber, dass ein übermäßiger Nominalstil als schlecht angesehen wird. Dazu kommt eine „Schwarze Liste“ an bestimmten Wörtern und Formulierungen, die ebenfalls eine schlechtere Wertung auslösen. Dass sich das Wort „effizient“ darunter befindet, hat Wurm preisgegeben, der Großteil aber bleibt im Dunklen. Inhalt und Aufbau der Texte werden nicht geprüft. Der sinnfreie Spaßtext oder das Boulevardblatt mit seinen einfachen, prägnanten Sätzen kann also auch Top-Werte erzielen.

Hochwertige Texte gehören zur Suchmaschinenoptimierung

Relevant ist Blablameter trotzdem: Und zwar nicht nur, um seine eigenen Texte besser lesbar zu machen, sondern auch in punkto Suchmaschinenoptimierung. Dass Google über einen Algorithmus verfügt, der die Qualität von Websitetexten zu messen versucht, ist schon länger bekannt.

John Mueller vom Schweizer Google-Team schrieb 2014: “Es gibt keine minimale Länge oder Anzahl an Artikeln, die man täglich posten muss, nicht einmal ein Minimum an Seiten auf einer Website. In den meisten Fällen ist Qualität besser als Quantität. Unsere Algorithmen versuchen ausdrücklich Websites zu finden und zu empfehlen, die einzigartige Inhalte von hoher Qualität bereitstellen, die für Nutzer unwiderstehlich sind. Füllt eure Seiten nicht mit Inhalt von geringer Qualität, stellt stattdessen lieber sicher, dass eure Seite die beste ihrer Art ist.“ (Übersetzung durch die Autorin).

Link: https://productforums.google.com/forum/#!topic/webmasters/ZOfwb2gaOeo/discussion

Und auch die Betreiber von Blablameter erzählen von Stichprobentests, bei denen Websites mit guter Google-Platzierung häufig auch niedrige Indexwerte erzielt hätten.

Schlechte Texte sprengen die Skala

Für den Test eigener Ergüsse auf heiße Luft braucht man mindestens drei bis fünf Sätze, ab einer Länge von 15.000 Zeichen wird der Rest einfach abgeschnitten. So lassen sich eigene Texte, von der Kurzmeldung bis zur Magisterarbeit (diese allerdings in Häppchen unterteilt), relativ schnell prüfen und auch einzelne schlecht formulierte Passagen sind schnell auffindbar.

Die Indexskala bewegt sich prinzipiell zwischen 0 und 1. Je höher der Wert, desto auffälliger die Phrasendrescherei. Laut Wurm erhalten gute journalistische Artikel eine Bewertung zwischen 0.1 und 0.3. Mehr deutet auf heiße Luft hin, weniger kann bedeuten, dass der Text stilistische Mängel aufweist. Krasse Fälle von PR-Sprache und bandwurmhaften Wissenschaftstexten können die Grenze nach oben aber auch durchbrechen, die höchsten bisher gemessenen Werte liegen laut Wurm sogar noch über 2.0.

Grund genug, seine eigenen Schöpfungen mal durchzuchecken. Dieser Blogbeitrag erzielt übrigens einen Wert von 0,19 und zeigt damit „nur geringe Hinweise auf ‘Bullshit‘-Deutsch“. Puh, noch mal Glück gehabt…

Ex-auchkomm-Praktikant Manuel Christa für beste Bachelorarbeit Technikjournalismus ausgezeichnet

Donnerstag, 16. Januar 2014

Manuel Christa (links), Absolvent des Studiengangs Technikjournalismus in Nürnberg, wurde  für die beste Bachelorarbeit des ersten Abschlussjahrgangs ausgezeichnet. Geehrt hat ihn Prof. Volker M. Banholzer, Leiter Studiengang Technikjournalismus / Technik-PR an der Technischen Hochschule Nürnberg Georg Simon Ohm, während  der Abschlussfeier am 15. Januar 2014 in der IHK Nürnberg für Mittelfranken. Manuel Christa war von März bis Juli 2012 Praktikant bei der auchkomm Unternehmenskommunikation und konnte für seine Abschlussarbeit die Kundenkontakte der Agentur nutzen.

Nachhaltig, umweltfreundlich, klimaneutral – alles nur Worthülsen?

Mittwoch, 28. März 2012

 

Umweltbewusstes Wirtschaften liegt im Trend und wird mit Begriffen wie „Nachhaltigkeit“ oder „Klimaneutralität“ von Unternehmen gerne beworben. Vielfach handelt es sich um reine Versprechen. Doch Umwelteinwirkungen von Produkten und Verfahren lassen sich etwa mit einer Ökobilanz ermitteln und bei methodisch gleichem Vorgehen auch vergleichen. Als Beispiel:  Wie „nachhaltig“ war  die Abwrackprämie?

Abwrackprämie 2009 (Quelle Bild: uschi dreiucker / pixelio.de).

Unter ihrem offiziellen Namen „Umweltprämie“ kennt heute kaum jemand den Zuschuss von 2.500 Euro, den der Staat 2009 einem zahlte, wenn man sein altes Auto verschrotten ließ und sich dafür einen Neuwagen zulegte. „Abwrackprämie“ wurde nicht nur der gebräuchliche Begriff, sondern auch Wort des Jahres 2009.  Primär hatte die Umweltprämie den Zweck, die schwächelnde Wirtschaft anzukurbeln. Aber wie umweltfreundlich ist überhaupt die Verschrottung eines noch funktionierenden, zugelassenen Autos? Wann ist der Ressourcen- und Energieverbrauch, der bei der Herstellung des Neuwagens anfällt, durch seinen geringeren – dies sei einmal vorausgesetzt – Spritverbrauch „amortisiert“? Denn die Abwrackprämie war nicht an ökologische Bedingungen für den Neuwagen geknüpft, wie vergleichbare Subventionen in anderen Ländern.  Antworten auf die Fragen zur Umwelteinwirkung liefert die Ökobilanz – zumindest teilweise.

Ökobilanz: Von der Wiege bis zur Bahre

Eine positive Bilanz der Abwrackprämie für die Umwelt zog das Heidelberger Institut für Energie- und Umweltforschung (ifeu) – wohlgemerkt beauftragt vom Bundesumweltministerium. Spritverbrauch und CO2-Ausstoß der Neuwagen sollen rund 20 Prozent niedriger sein als bei den verschrotteten Fahrzeugen. Die Verringerung der Luftschadstoffe, wie etwa Rußpartikel, soll sogar 99 Prozent betragen.

Umwelteinwirkungen der Herstellung sowie Entsorgung wurden von den Heidelberger Wissenschaftler nicht berücksichtigt, was dem ganzheitlichen Ansatz einer Ökobilanz widerspricht. Diesen Anspruch hatten sie aber auch nicht, es wurde lediglich eine „erste Bilanz“ gezogen. „Eine wissenschaftliche Bilanzierung der Umwelteffekte der Abwrackprämie steht bisher aus“, so im Gutachten.

„In der Summe entstehen 30% der negativen Umwelteffekte außerhalb der eigentlichen Nutzungszeit eines Autos – unter der Voraussetzung, dass seine Lebensdauer voll ausgeschöpft und nicht künstlich verkürzt wird“, schreibt Matthias Brake im Online-Magazin Telepolis. Bei nur neun Jahren Lebensdauer sollen es gar 50% Umwelteinwirkung sein, die der Herstellung und Entsorgung zuzuschreiben seien.

Umweltfreundliches Auto (Quelle Bild: Matthias Preisinger / pixelio.de).

Schadstoffarmes Auto (Quelle Foto: Matthias Preisinger / pixelio.de)

So sehr man sich aber auch bemüht, alle vermeintlichen Umwelteinwirkungen „von der Wiege bis zur Bahre“ zusammenzutragen, das Ergebnis ist stets kritisch zu betrachten: Denn um die Umweltverträglichkeit in der Ökobilanz auf eine Dimension zu reduzieren, werden die Werte aller schädlichen Stoffe mit einem vorher festgelegten Faktor umgerechnet, beispielsweise in ein CO2-Äquivalent. Nicht zuletzt dadurch wird das Ergebnis verzerrt.

Was ist eigentlich Nachhaltigkeit?

Auch wenn der Begriff der Nachhaltigkeit (engl. Sustainability) oft im ökologischen Sinne verwendet wird, so ist er nicht darauf beschränkt. Dennoch beschreibt der Ursprung aus der Forstwirtschaft das Prinzip recht griffig: Es darf nur so viel gefällt werden wie auch nachwachsen kann. Im Jahr 1713 tauchte erstmals in einer Publikation von Hans Carl von Carlowitz die Formulierung einer „nachhaltenden Nutzung“ von Wäldern auf.

Mittlerweile wurde der umweltbezogene Gedanke um eine wirtschaftliche und eine gesellschaftliche Komponente ergänzt. Nach der Enquetekommission des Deutschen Bundestages bilden daher Umwelt, Wirtschaft und Gesellschaft die drei Säulen der Nachhaltigkeit. Auf diesen basieren die verschiedenen Methoden zur Analyse von Umwelteinwirkungen oder Kosten.

Umweltzeichen: Umweltfreundlich weil emissionsarm?

Um Umweltzeichen mit echter Prüfung erkennen zu können, werden sie per Norm in drei Typen unterteilt. Typ I (ISO 14024) ist das für den Verbraucher interessanteste Umweltzeichen: Es zeichnet eine nachgewiesene umweltfreundlichere Eigenschaft gegenüber Konkurrenzprodukten aus.

Umweltzeichen „Der Blaue Engel“ (Quelle: www.der-blaue-engel.de)

Der Blaue Engel ist das bekannteste Typ-I-Zeichen, das aber keine Auszeichnung des Gesamtproduktes ist, sondern nur einen Umweltaspekt angibt, der  stets im Untertitel genannt ist. Ein Laserdrucker zum Beispiel „schützt das Klima“, wenn er weniger Strom verbraucht  oder weniger Schadstoffe in die Luft bläst als vergleichbare Drucker. Unter den Geräten mit Blauen Engel gibt es zudem kein weiteres Ranking. Ebenso können auch nicht ausgezeichnete Geräte umweltfreundlich sein, da der Blaue Engel nur auf Antrag vergeben wird.

Umweltdeklarationen nach Typ II (ISO 14021) sind Zeichen, die nach frei wählbaren Kriterien vom Hersteller selbst eingesetzt werden, um etwa die eigene Produktpalette zu klassifizieren. Unabhängige Dritte prüfen hier nicht die Kriterien, dies ist jedoch beim Umweltzeichen des Typs III der Fall: Es liefert eine quantitative Aussage über die Umwelteinwirkungen eines Produktes und ist zum Beispiel für Kühlschränke, Waschmaschinen oder Geschirrspüler vorgeschrieben. Damit lassen sich die Geräte etwa nach der EU-Energieverbrauchs-Kennzeichnung in Stufen von A+++ bis G unterteilen.

Energielabel (Quelle: Wikipedia).

Klimaneutral durch Kompensation

Die Bilanzierung der Umwelteinwirkungen eines Flugzeuges allein wird nie zu einem umweltfreundlichen Ergebnis gelangen. Unter dem Stichwort „klimaneutral“ sollen Umweltsünden  wieder reingewaschen werden, indem in CO2-sparende Projekte investiert wird. Zahlte man früher den Ablass nur an die Kirche, nehmen ihn heute bei Umweltsünden die Klimaschützer:

Die Non-Profit-Organisation „atmosfair“ etwa lässt sich das schlechte Gewissen der Flugpassagiere bezahlen, indem ein Emissionsrechner den CO2-Anteil des eigenen Fluges ermittelt. Mit einer Investition in ein Klimaschutz-Projekt soll dieser dann kompensiert werden. So kostet der Umwelt-Ablass für einen einfachen Flug von Köln nach Frankfurt mit 50 kg CO2 pro Passagier 6 Euro. Die Kölner Flughafengesellschaft bietet dasselbe Prinzip an, spricht beim selben Flug von 84 kg CO2 und verlangt nur 5 Euro.

Echte Klimaneutralität ist solche, die nicht durch Kompensation erlangt wird, sondern durch CO2-Vermeidung. Fürs (weite) Fliegen aber existiert kaum eine praktikable Alternative, sodass die Kompensation hier das geringste Übel darstellt.

„Starke Nachhaltigkeit“ und „schwache Nachhaltigkeit“

Nachhaltigkeit ist also nur innerhalb einer der erwähnten Kategorien messbar. Theoretisch kann daher zwischen einer starken und schwachen Nachhaltigkeit unterschieden werden: Somit wird die Frage beantwortet, ob die Dimensionen Umwelt, Wirtschaft und Gesellschaft einander aufwiegen dürfen.

Eine „starke Nachhaltigkeit“ verbietet ein Aufbrauchen des Naturkapitals. Um auf das ursprüngliche Beispiel zurückzukommen, sei dies am Holz verdeutlicht: Es muss stets so viel nachwachsen, wie gerodet wird – selbst wenn der Mensch mehr benötigt. Umwelt geht vor Wirtschaft und Gesellschaft. Der Begriff „schwache Nachhaltigkeit“ verbietet lediglich ein Aufbrauchen des Gesamtkapitals. Würde also eine reproduzierbare Technologie existieren, die Holz ersetzen könnte, dürfte man es aufbrauchen. Alle drei Kategorien sind hier gleichwertig und daher ist Natur- durch Sachkapital ersetzbar.

Der „starken Nachhaltigkeit“ zuliebe dürften nicht-regenerative Ressourcen wie Kohle oder Öl gar nicht abgebaut werden, wohingegen sich eine schwache Nachhaltigkeit etwa nur am Bruttosozialprodukt einer Gesellschaft orientieren könnte. Der Kompromiss der Praxis aber liegt  in jeder Umweltfrage irgendwo in der Mitte. Somit wurde zumindest von Seiten der Urheber auch die Abwrackprämie als voller Erfolg gewertet: Sie hatte spätestens dann ihren Zweck erfüllt, als 2011 die Autoindustrie Rekordumsätze meldete. Da sie aber insgesamt eine negative Ökobilanz aufweist, und als Subvention zunächst den Steuerzahler belastete,  wurden diese Umsätze zu Lasten von Umwelt und Gesellschaft erzielt.

Autor: Manuel Christa, Student Technikjournalismus an der Georg-Simon-Ohm-Hochschule in Nürnberg

Technikjournalismus: Modetrend oder notwendige Vermittlung zwischen Technik & Leser?

Dienstag, 15. Februar 2011

Studienangebote zum Technikjournalisten haben Konjunktur, so auch in Nürnberg: Erstmals seit der Einführung zum Wintersemester 2009/2010 bietet die Georg-Simon-Ohm-Hochschule den Studiengang Technikjournalismus nun auch zum Sommersemester an.

Damit reagiert sie nicht nur auf den diesjährigen doppelten Abiturjahrgang in Bayern, sondern auch auf den Wunsch von Wirtschaft und Medien nach technisch ausgebildeten Journalisten. Rund 60 Studenten haben sich in den vergangenen zwei Jahren für diesen Studiengang an der Hochschule entschieden. Technikjournalist – nur ein Modeberuf oder eine Profession mit Perspektive?

Wissen und Informationen als Gesellschaftsproblem

Im Jahr 2002 haben Mitarbeiter des Max-Planck-Institutes für Festkörperforschung, Stuttgart, in einem Beitrag „Literaturflut – Informationslawine – Wissensexplosion Wächst der Wissenschaft das Wissen über den Kopf?“ geschätzt, dass die Zahl der Menschen mit wissenschaftlich-technischer Bildung zwischen 1950 und 2000 von 10 Millionen auf 100 Millionen zugenommen hat.  Parallel zur Zahl der Wissenschaftler steige die Informationsmenge an.

Mehr Forschung führt aber nicht nur zu einer ungeheuren Vermehrung von Wissens und Innovationen. Auch die Komplexität und Spezialisierung der Themen nimmt zu. Das zwingt Forscher und Entwickler immer häufiger, Neuerungen fach-, markt-, und zielgruppengerecht zu publizieren. Die Leserkreise sind vielfältig und reichen von Unternehmen und anderen Technikverwertern über mögliche Finanziers bis zu den Medien und Verbrauchern. Jede Gruppe benötigt unterschiedliche Informationen in einer anderen Sprache.

Mehr Masse als Klasse

Ein besonderer Aspekt beim Informationsverhalten der Verbraucher ist die zunehmende Nutzung von Meinungs- und Bewertungsportalen wie Dooyoo.de und Ciao.de. Das Internet verspricht ein breites Informationsangebot und Suchmaschinen schnell verfügbares Wissen.

Ciao.de, nach eigenen Angaben Europas Verbraucher- und Shopping-Portal Nummer eins, steht mit mittlerweile rund sechs Millionen subjektiven Erfahrungsberichten und Produktbewertungen von Konsumenten beispielhaft für die webbasierte Informationsexplosion. Das Problem: Es vermehrt sich weniger die Qualität als die Quantität der Informationen, so dass die Masse der Einträge die Auswahl der nützlichen erschwert.

Die Chance für etablierte Medien

Das muss der Ansatzpunkt für die Medien sein. Es ist eine der wichtigsten Aufgaben von Journalisten, Informationen für den Leser zu selektieren und zu strukturieren. Das gilt für die Politik, die Wirtschaft und wird zunehmend eben auch für technische Themen relevant.

Das Problem ist, dass viele technische Verlautbarungen und Pressemitteilungen noch in schwer verständlicher Sprache formuliert sind. Technikjournalisten sind in der Lage, die Informationen zu verstehen, zu bewerten, mit Hintergrundinformation anzureichern und zielgruppengerecht darzustellen.

Bei schwierigen und gesellschaftlich brisanten Themengebieten, beispielsweise aus der Umwelt-, Atom-  und Gentechnik, wird der Leser erst durch verständliche und qualifizierte Informationen in die Lage versetzt, sich mit ihnen auseinanderzusetzen und sich eine Meinung bilden zu können.

Perspektive Technikjournalismus

Noch sieht die Wirklichkeit anders aus. Die Medien greifen auf Journalisten mit autodidaktisch erworbenem technischen Wissen zurück, die Wirtschaft auf Ingenieure mit Zeitmangel und fehlender sprachlicher Schulung.

Quasi als Vermittler zwischen Technik und Sprache soll der 1999 an der Hochschule Bonn-Rhein-Sieg eingeführte Studiengang Technikjournalismus fungieren. Die Studieninhalte sind zu gleichen Teilen auf Journalismus und technische Themengebiete aufgeteilt.

60 Studienplätze stehen mittlerweile für den auf den Bachelorabschluss umgestellten Studiengang zur Verfügung – rund 200 Absolventen in den letzten 10 Jahren haben das Angebot genutzt. Dass ausgerechnet die bekannteste Studentin des Studienganges, Katrin Bauernfeind, mit nicht-technischen Themen große Erfolge in den populären Medien feiert, schmälert die Qualität des Studienprogramms in keiner Weise, sondern zeigt die Vielseitigkeit der Absolventen.

Werbebranche, Projektmanagement, Medienbereich, PR-Agenturen und technikgeprägte Unternehmen – die späteren Arbeitsbereiche sind vielseitig. 95% der Absolventen haben laut Hochschule einen Job gefunden. Wachsendes Interesse der Gesellschaft für technische Themen und der weiter steigende Pegel der Informationsflut lässt den Koordinator, Professor und Mitentwickler des Studiengangs Prof. Dr. Andreas Schümchen auch für die Zukunft ein reges Interesse der Arbeitgeber an den Absolventen prognostizieren. Der Nürnberger Georg-Simon-Ohm-Hochschule ist zu wünschen, dass ihr Studienangebot ebenfalls ein großer Erfolg wird.

Der Autor Patrick Kraus studiert Maschinenbau in Nürnberg. Zum Sommer 2011 plant er den Wechsel ins Studienfach Technikjournalismus.

Gilt noch immer: „Feuern Sie Ihre PR-Leute“

Donnerstag, 27. Mai 2010

„Feuern Sie Ihre PR-Leute“, hat Bernd Ziesemer, ehemaliger Chefredakteur des Handelsblattes,  einen Beitrag aus dem Jahr 2000 überschrieben – und der Inhalt ist eine Dekade später unvermindert aktuell. Deshalb verweise ich auf den Text regelmäßig bei IHK-Seminaren zur Pressearbeit mittelständischer Unternehmen, bei denen ich als Dozent auftreten darf.

Ziesemer nannte eine Reihe von Gründen, mit denen sich sogenannte Kommunikationsfachleute für Pressearbeit disqualifizieren. Anhand von Beispielen aus PR-Texten von Unternehmen zeigte er auf, was Redakteure damals nervte – und was auch heute Ausschlussktriterien für gute Pressemitteilungen sind: nichtige Anlässe, fehlerhaftes oder geschwollenes Deutsch, mit englischen Ausdrücken gespickte Texte, nichtssagende Zitate, telefonisches Nachfassen, ob die Meldung auch veröffentlicht wird.

Kurz nach der Jahrtausendwende war er sicherlich genervt vom „Neuen Markt“-Hype gewesen. Wir erinnern uns, dass sich im Umfeld zahlreicher Börsengänge eine Flut schlecht formulierter, nichtssagender Unternehmens-Pressemitteilungen über die Redaktionen von Tageszeitungen und Fachzeitschriften ergoss.

Ein Jahrzehnt später ist es  nicht besser geworden. Internetportale, bei denen jedermann kostenlos Pressemitteilungen veröffentlichen kann, geben auch dem Nicht-Redaktionsmitglied einen Einblick in das, was aktuell von PR-Leuten verbrochen wird.

Ein Beispiel gefällig?

Den Text  Die NEUE S320-12 ist ein starker Typ mit starkem Auftritt vom 14. April 2010 fand ich im Portal www.pressemitteilung.ws.  Er beginnt mit  den Zeilen: „Erneut das HÖHEN – Limit nach oben verschoben hat Fa. H.A.B. aus Kronau. Mit der neuen S 320-12 stellt H.A.B. nochmals unter Beweis, was technisch machbar ist. Bereits seit Dezember letzten Jahres laufen die beiden ersten Geräte dieser neuen SUPER Serie und sind schon jetzt nicht mehr wegzudenken. “

Und? Wissen Sie, um was es geht (wenn Sie über die Versalien hinweggekommen sind)? Wie sollten Sie auch. Erst weitere zwei Sätze später kommt der Hinweis: „Zudem sind ALLE Hochregal – Bühnen von H.A.B. in VOLLER Höhe verfahrbar.“

Die Negativliste lässt sich leicht ergänzen

Zu Ziesemers Negativkriterien lassen sich bereits nach Lektüre dieses Textes noch weitere hinzufügen: Wer in seinem Text nicht verrät, um was es ihm geht – gehört gefeuert. Wer mit Großbuchstaben herumschreit und Ausdrücke wie „Super“ benutzt – gehört gefeuert.

Wer behauptet, eine Firma beweise mit einer neuen Hochregal-Bühne, „was technisch machbar ist“ – gehört gefeuert und noch einmal auf die Schule. Und wer glaubt,  dass es mitteilenswert sei, dass eine Hochregal-Bühne nicht mehr wegzudenken sei, der soll doch einmal zeigen, wie es möglich ist, auch nur eine Schraube „wegzudenken“. Man darf gespannt sein: Die Autorin bezeichnet sich selbst als „Journalistin, Psychologin, Dozentin“ – vielleicht kann sie das ja.

Beispiele für weitere Textkritik

Für Hinweise auf interessante Pressemitteilungen, Veröffentlichungen in Publikationen oder im Internet für eine Textkritik bin ich dankbar. Bitte mailen an blog@mehrblick-blog.eu.

F.  Stephan Auch

PR-Sprache – ein neuer Blog

Montag, 10. Mai 2010

„PR-Sprache“ – das Wort hat keinen guten Klang. Damit verbindet man werbende und verschleiernde Marketingtexte, die als „Pressemitteilungen“ verkleidet an Redaktionen versendet werden. Wo sie dann Journalisten nerven, die sie flugs in den Papierkorb befördern. „PR-Sprache“ wird auch in Geschäftsberichten, Unternehmenbroschüren und auf Internetseiten eingesetzt, um abzulenken und zu beschönigen. „PR-Sprache“ verwenden Werber, die sich auch „PR-Gags“ ausdenken.

„PR-Sprache“ und „Pressearbeit von Unternehmen“

Richtig verstandene und gut gemachte Pressearbeit kann für Unternehmen ein erfolgreiches Instrument sein, um auf Produkte, Dienstleistungen, Innovationen und andere Leistungen aufmerksam zu machen. Sachlich und informativ im Inhalt, journalistisch in der Sprache, interessant bei der Themenwahl unterstützen Pressetexte, Anwenderberichte, Journalistengespräche und Messepräsentationen den Vertrieb, die Imagebildung und das Verständnis über Unternehmen.  Erfolgreiche Pressearbeit liefert Informationen.

Der Leser wird für dumm verkauft

„PR-Sprache“ und die dahinter stehende Einstellung machen das Gegenteil:  Sie bauschen auf, lenken ab, täuschen vor. Der Leser soll nicht informiert, sondern geblendet werden. Wenn der Inhalt nicht überzeugt oder der Schreiber dies befürchtet, dann helfen nur noch Superlative. Die Haltung dahinter: Der Empfänger ist zu dumm, um die Bedeutung einer echten Nachricht zu erkennen, deshalb wird diese marktschreierisch überhöht. Gibt es einmal keine Neuigkeit zu vermelden, wird der dumme Leser das schon nicht merken, dafür werden geschraubte Formulierungen, nichtssagende Floskeln und reißereische Aussagen verwendet.

Was erfolgreiche Pressearbeit ausmacht

Ich halte Pressearbeit für wichtig, Unternehmen, die ich hierbei unterstütze, nutzen dieses Instrument erfolgreich. Mich stört es, wenn der Kontakt zu einem Journalisten deshalb mühevoll ist,  weil dieser schlechte Erfahrungen mit anderen Unternehmen gehabt hat. Das erschwert mir ein Stück weit die Arbeit – solange, bis ich den Journalisten davon überzeugt habe, dass er von Pressemitteilungen meiner Kunden einen Nutzen hat: Indem er dadurch Anregungen zu anderen Themen bekommt, Neues über Innovationen aus einer für ihn interessanten Branche erfährt, Beispiele erfolgreicher Problemlösungen kennenlernt. Denn wer sich auf Unternehmensseite dazu entschließt, Journalisten wie ein Dienstleister als Kunden zu behandeln, wird schnell eine gute Zusammenarbeit aufbauen können.

Wofür soll ein Blog „PR-Sprache“ gut sein?

Mir ist es wichtig, dass Unternehmen eine gute Sprache benutzen, wenn sie über Wirtschaft, Technik und Service berichten und sich an die Öffentlichkeit wenden. Leider gibt es genug Negativbeispiele, wo dies nicht der Fall ist. Mit diesem Blog möchte ich auf solche Mißstände aufmerksam machen, gleichzeitig aber auch positive Beispiele hervorheben und beides zur Diskussion und Kommentierung stellen. Damit sich vielleicht etwas ändert.

Über Hinweise, Beispiele, Anregungen und Ideen an  blog@mehrblick-blog.eu freue ich mich.