Sie sind auf Seite 1von 9

Was Google nicht findet …

&
“Surfacing Hidden Value" appeared in The Journal of
Electronic Publishing from the University of
Michigan…
Suchmaschinen haben Grenzen. Selbst Google findet nur einen Teil aller verfügbaren
Informationen im Internet. Hier zeigen wir Ihnen, warum dies so ist und wie Sie den Rest
aufspüren.

Das sichtbare und das unsichtbare Netz

Schätzungen zufolge gibt es ca. 30 Milliarden frei zugängliche Internetseiten. Dieser Teil des
Internets ist das sichtbare Netz, das sogenannte "Visible Web". Die größte Suchmaschine -
Google - hat davon ca. 15-20 Milliarden Internetseiten indexiert (gespeichert). Theoretisch
könnte eine Suchmaschine alle Seiten aus diesem "Visible Web" indexieren, es gibt jedoch
verschiedene Barrieren für die Suchmaschinen (dazu im nächsten Abschnitt mehr).

Darüber hinaus gibt es Seiten, die für Suchmaschinen von vornherein unsichtbar sind und die
von Suchmaschinen nicht indexiert werden können. Diesen Teil des Internets nennt man daher
auch das "Invisible Web". Schätzungen über die Größe des "Invisible Web" differieren sehr
stark. Die Datenmenge im "Invisible Web" soll laut einer Studie der Firma Brightplanet aus
dem Jahr 2001 etwa 500-mal größer sein
(http://www.brightplanet.com/resources/details/deepweb.html) als die des "Visible Web".
Noch heute ist deshalb häufig zu lesen, dass das "Invisible Web" 500 mal größer sei als das
"Visible Web". Allerdings darf man die Datenmenge nicht mit der Zahl der Internetseiten
gleichsetzen, da z.B. eine hochaufgelöste Satellitenaufnahme die gleiche Datenmenge wie
1.000 Internetseiten haben kann. In einer Studie aus dem Jahre 2006 wurde die Zahl aus der
Brightplanet-Studie als deutlich zu hoch bezeichnet (siehe
http://eprints.rclis.org/archive/00009156/). Dennoch: Das "Invisible Web" existiert.

Zuerst möchten wir Ihnen zeigen, warum allgemeine Suchmaschinen wie Google Webseiten
aus dem "Visible Web" und dem "Invisible Web" nicht indexieren können. Danach zeigen wir
Ihnen, wie Sie spezielle Suchdienste für das Invisible Web finden, die Ihnen helfen, die für
allgemeine Suchmaschinen unsichtbare Information dennoch aufzuspüren.

Welche Barrieren gibt es für die Suchmaschinen?

Auch mit der optimalen Suchstrategie lassen sich niemals alle relevanten Internetseiten
auffinden, denn es gibt einige Grenzen in den Suchmaschinen. Keine Suchmaschine kennt
alle Seiten, die es im Internet gibt. Alles, was eine Suchmaschine jedoch nicht kennt, kann
auch nicht von ihr indexiert werden. Alles, was nicht indexiert wurde, kann über diese
Suchmaschine auch nicht gefunden werden. Viele Informationen bleiben der Suchmaschine
somit verborgen. Andere Internetseiten, die zwar indexiert wurden, werden von der
Suchmaschine aus unterschiedlichen Gründen nicht angezeigt. Auch diese Internetseiten
bleiben dem Nutzer verborgen.

Warum wird eine Internetseite nicht indexiert?

 Auf die Internetseite führt kein Link


Die Crawler der Suchmaschinen können nur Internetseiten indexieren, die über einen
Link erreichbar sind. Gibt es keinen Link auf die Internetseite, kann die Seite auch
nicht indexiert werden, landet nicht im Index der Suchmaschinen und ist bei der Suche
in dieser Suchmaschine nicht auffindbar.
 Die Internetseite ist zu versteckt
Sehr umfangreiche Internetangebote besitzen oft sehr tiefe Hierarchien. Die
Suchmaschinen-Crawler dringen aber nicht immer bis in die tiefsten Ebenen eines
Internetangebots vor und so bleiben ihnen einige Seiten verborgen, auch wenn ein
Link auf die Seite führt.

 Die Internetseite ist zu aktuell


Manche Informationen sind schon in wenigen Stunden veraltet und nicht mehr zu
gebrauchen (denken Sie an Börsenkurse, den Wetterbericht oder aktuelle
Nachrichten). Suchmaschinen brauchen jedoch in der Regel ein paar Tage, bis sie eine
neue Seite indexiert haben und diese über die Suchmaschine suchbar ist. Deshalb kann
man hochaktuelle Informationen nicht in allgemeinen Suchmaschinen finden. Auch
dieser Bereich bleibt also unsichtbar.

 Die Internetseite darf nicht indexiert werden


Der Ersteller eines Internetangebots kann festlegen, welche Seiten von einem
Suchmaschinen-Crawler nicht besucht oder nicht indexiert werden dürfen. Hält sich
der Crawler an diese Vorgaben, bleiben ihm diese Seite verborgen.

 Die Internetseite hat keinen Text


Suchmaschinen können nur den Text auf einer Seite indexieren. Grafiken, Musik,
Filme und Animationen können z.B. nur durch die dazugehörigen Beschreibungstexte
indexiert werden - häufig fehlen diese jedoch auf Internetseiten.

 Die Internetseite hat zu viel Text


Sehr umfangreiche Internetseiten werden teilweise nicht vollständig indexiert. Alle
Wörter, die hinter dieser Indexierungsgrenze liegen, werden nicht indexiert und
können auch nicht gefunden werden.

 Das Dateiformat ist unbekannt


Die gängigen Dateiformate (HTML-, Word-, Excel-, Powerpoint- und PDF-Dateien)
können von Suchmaschinen indexiert werden, einige unbekanntere Formate jedoch
nicht.

 Die Internetseite ist nicht frei zugänglich


Viele Informationen sind nur nach Eingabe eines Passwortes oder nur innerhalb einer
Firma zugänglich. Da ein Suchmaschinen-Crawler die Passwörter nicht kennt und von
außerhalb der Firma kommt, kann er die Seiten die hinter dieser Grenze liegen, nicht
erreichen.

 Inhalte aus Bibliothekskatalogen und Fachdatenbanken


Um eine Datenbank (z.B. unseren Bibliothekskatalog) zu durchsuchen, geben Sie
i.d.R. Stichwörter in eine Suchmaske ein. Anschließend erhalten Sie das Suchergebnis
auf einer Internetseite. Diese Seiten werden dynamisch erzeugt, d.h. sie sind
nirgendwo gespeichert (stellen Sie sich vor, wie viele Seiten es geben müsste, wollte
man alle möglichen Antworten auf alle denkbaren Suchanfragen einzeln speichern).
Wenn Sie eine Suche durchgeführt haben, können nur Sie die Seite mit der Trefferliste
sehen - rufen Sie eine andere Seite auf oder führen Sie eine neue Suche durch existiert
diese Seite nicht mehr.
Die Indexierungsprogramme der Suchmaschinen folgen nur den Links auf
Internetseiten. Sie können keine Internet-Adressen selber eingeben oder Stichwörter in
einer Suchmaske eintragen. Deshalb bleibt dieser Bereich für sie unsichtbar.

Warum wird eine Internetseite nicht angezeigt, obwohl sie indexiert wurde?

 Die Seite wird aus formalen Gründen ausgefiltert


Inhaltlich identische Seiten (sogenannte Dubletten) erscheinen meist nur einmal in
einer Trefferliste. Manchmal versagt allerdings diese Dublettenprüfung und die
Internetseiten werden nicht angezeigt, obwohl sich die Inhalte unterscheiden.
 Die Seite wird aus inhaltlichen Gründen ausgefiltert (Zensur)
In vielen Ländern - nicht nur in China - wird der Index der Suchmaschinen von
rechtswidrigen oder einfach von "unerwünschten" Inhalten "gesäubert".

 Der Suchmaschinenbetreiber löscht die Seite aus dem Index


Suchmaschinen sind große Wirtschaftsunternehmen. Niemand kann einem
Suchmaschinenbetreiber vorschreiben, was über den Index zu finden sein soll und was
nicht. Inhalte können vom Suchmaschinenbetreiber aus dem Index gelöscht werden,
wenn sich der Betreiber eines Internetangebots nicht an die "Spielregeln" hält und z.B.
versucht durch falsche Angaben eine gute Platzierung in einer Trefferliste zu
erreichen.
 Eingeschränkte Suchmöglichkeiten
Suchmaschinen bieten im Vergleich zu Bibliothekskatalogen oder Fachdatenbanken
nur eingeschränkte Suchmöglichkeiten. Die Verwendung von Platzhaltern ist z.B.
nicht möglich. Es kann sein, dass Ihnen eine Seite nur deshalb nicht als Treffer
angezeigt, weil das Wort einfach anders geschrieben ist.

Wie finde ich Suchdienste für das Invisible Web?

Spezialsuchmaschinen

Es gibt im Internet Tausende spezialisierten Suchmaschinen, z.B. für wissenschaftliche


Internetseiten, besonders aktuelle Internetseiten (Nachrichten aus Tageszeitungen) oder für
spezielle Dateiformate (Grafiken, Filme oder Musik). Zwar sind Spezialsuchmaschinen
kleiner als allgemeine Suchmaschinen, über sie lassen sich jedoch auch Inhalte finden, die den
großen, allgemeinen Suchmaschinen verborgen bleiben. Da es sehr viele
Spezialsuchmaschinen gibt und diese in den Weiten des Internets häufig schwer zu finden
sind, gibt es Suchmaschinenverzeichnisse, in denen diese Spezialsuchmaschinen gesammelt,
geordnet und teilweise auch bewertet werden. In unserer Liste der nützlichsten Suchdienste
sind einige Spezialsuchmaschinen und einige Suchmaschinenverzeichnisse aufgeführt.

Fachdatenbanken

Für die wissenschaftliche Recherche sind Fachdatenbanken ein unverzichtbares


Suchinstrument. Allgemeine oder spezialisierten Suchmaschinen allein reichen für eine
fundierte Recherche nach Informationen im Internet nicht aus. Fachdatenbanken enthalten
riesige Datenmengen (allein in den Datenbanken in unserer Metasuche finden Sie über 100
Millionen Nachweise auf Dokumente aller Art). Diese gehören in aller Regel zum "Invisible
Web", d.h. die Inhalte bleiben allgemeinen Suchmaschinen, aber auch vielen
Spezialsuchmaschinen verborgen. Auch wenn viele Fachdatenbanken inzwischen frei im
Internet zur Verfügung stehen, gibt es bei sehr vielen Fachdatenbanken eine
Zugriffsbeschränkung. Hochschulbibliotheken bieten jedoch ihren Nutzern häufig den Zugriff
auf viele dieser Fachdatenbanken, z.B. über das Datenbankinformationssystem DBIS. Auch
Suchmaschinen, Suchmaschinenverzeichnisse und Internetverzeichnisse eignen sich für die
Suche nach Fachdatenbanken.

Nächster Schritt: Die nützlichsten Suchdienste

Sie wissen nun, dass Suchmaschinen Grenzen haben und wie Sie diese Grenzen überwinden
können. Auf der Seite Die nützlichsten Suchdienste zeigen wir Ihnen, welche Suchdienste
sich am besten für bestimmte Fragestellungen eignen, z.B. um speziell wissenschaftliche
Dokumente zu finden.

Sebastian Wolf, Universitätsbibliothek Bielefeld - letzte Aktualisier


http://www.ub.uni-bielefeld.de/biblio/search/help/invisibleweb.htm

english version:

A BRIGHTPLANET WHITE PAPER

Download the White Paper in PDF Format

This modified version of "The deep Web: Surfacing Hidden Value" appeared in The Journal of
Electronic Publishing from the University of Michigan (http://www.press.umich.edu/jep/07-
01/bergman.html), July 2001.

Abstract
Searching on the Internet today can be compared to dragging a net across the surface of the
ocean. While a great deal may be caught in the net, there is still a wealth of information that is
deep, and therefore, missed. The reason is simple: Most of the Web's information is buried far
down on dynamically generated sites, and standard search engines never find it.

Traditional search engines create their indices by spidering or crawling surface Web pages. To
be discovered, the page must be static and linked to other pages. Traditional search engines
can not "see" or retrieve content in the deep Web — those pages do not exist until they are
created dynamically as the result of a specific search. Because traditional search engine
crawlers can not probe beneath the surface, the deep Web has heretofore been hidden.

The deep Web is qualitatively different from the surface Web. Deep Web sources store their
content in searchable databases that only produce results dynamically in response to a direct
request. But a direct query is a "one at a time" laborious way to search. BrightPlanet's search
technology automates the process of making dozens of direct queries simultaneously using
multiple-thread technology and thus is the only search technology, so far, that is capable of
identifying, retrieving, qualifying, classifying, and organizing both "deep" and "surface"
content.

 If the most coveted commodity of the Information Age is indeed information, then the
value of deep Web content is immeasurable. With this in mind, BrightPlanet has
quantified the size and relevancy of the deep Web in a study based on data collected
between March 13 and 30, 2000. Our key findings include:
 Public information on the deep Web is currently 400 to 550 times larger than the
commonly defined World Wide Web.
 The deep Web contains 7,500 terabytes of information compared to nineteen terabytes
of information in the surface Web.
 The deep Web contains nearly 550 billion individual documents compared to the one
billion of the surface Web.
 More than 200,000 deep Web sites presently exist.
 Sixty of the largest deep Web sites collectively contain about 750 terabytes of
information — sufficient by themselves to exceed the size of the surface Web forty
times.
 On average, deep Web sites receive fifty per cent greater monthly traffic than surface
sites and are more highly linked to than surface sites; however, the typical (median)
deep Web site is not well known to the Internet-searching public.
 The deep Web is the largest growing category of new information on the Internet.
deep Web sites tend to be narrower, with deeper content, than conventional surface
sites.
 Total quality content of the deep Web is 1,000 to 2,000 times greater than that of the
surface Web.
deep Web content is highly relevant to every information need, market, and domain.
 More than half of the deep Web content resides in topic-specific databases.
 A full ninety-five per cent of the deep Web is publicly accessible information — not
subject to fees or subscriptions.

To put these findings in perspective, a study at the NEC Research Institute (1), published in
Nature estimated that the search engines with the largest number of Web pages indexed (such
as Google or Northern Light) each index no more than sixteen per cent of the surface Web.
Since they are missing the deep Web when they use such search engines, Internet searchers
are therefore searching only 0.03% — or one in 3,000 — of the pages available to them today.
Clearly, simultaneous searching of multiple surface and deep Web sources is necessary when
comprehensive information retrieval is needed.

http://www.brightplanet.com/resources/details/deepweb.html

Die nützlichsten Suchdienste

Jeder Suchdienst hat Stärken und Schwächen und jeder ist für eine bestimmte Frage besonders
gut geeignet. Näher wird Ihnen das auf der Seite Die Stärken und Schwächen der Suchdienste
erläutert. Hier konzentrieren wir uns auf die jeweils besten und bekanntesten Suchdienste.

Suchmaschinen eignen sich besonders gut, wenn Sie Fakten oder aktuellere Informationen
suchen. Google ist trotz einiger kleinerer Schwächen die klare Nr. 1 bei den Suchmaschinen.
Laut eigener Aussage (Quelle: Google Blog) "kennt" Google mittlerweile über 1 Billion (!)
URLs. Nicht jede davon gelangt jedoch in den Index, denn es gibt unzählige Seiten ohne
Inhalt oder inhaltlich identische Seiten, die von Google von vornherein ausgefiltert werden.
Die tatsächliche Indexgröße liegt daher schätzungsweise bei 50-100 Milliarden Internetseiten
(was immer noch unvorstellbar viel ist). Auch bei der Aktualität (oft sind Änderungen schon
nach 1-2 Tagen im Index) und den vielen weiteren Suchfunktionen und Diensten kann keine
andere Suchmaschine mithalten. Auch deshalb liegt der Suchmaschinen-Marktanteil von
Google in Deutschland mittlerweile bei 90% (Quelle: Webhits). Wer eine Alternative zum
Quasi-Monopolisten Google sucht, ist bei Yahoo am besten aufgehoben. Auch diese
Suchmaschine ist äußerst umfassend, bietet viele Suchfunktionen und Dienste und findet
manchmal mehr zu einem Thema als Google. Bei allgemeinen Suchen sehr nützlich ist
Ask.com, allerdings nur in der US-Version. Wenn Sie hier z.B. nach dem Namen einer Stadt
suchen, werden Ihnen auch Bilder, Nachrichten oder die aktuelle Uhrzeit angezeigt. Die
deutschsprachige Oberfläche von Ask bietet diesen Service nicht und ist daher nicht zu
empfehlen. Der Index von Ask ist deutlich kleiner als der von Google und Yahoo und die
Suchmaschine wird auch nur selten aktualisiert. Auch Live.com, die Suchmaschine von
Microsoft, kann nicht mit Google oder Yahoo mithalten. Sie ist weder besonders umfangreich,
noch besonders aktuell und bietet auch sonst keine besonderen Funktionen an, die man nicht
auch bei Google, Yahoo oder Ask findet. Neben Google, Yahoo, Ask.com und Live.com gibt
es noch Hunderte weiterer allgemeiner Suchmaschinen, diese benutzen jedoch praktisch
immer den Index einer der hier genannten Dienste und spielen deshalb im Grunde genommen
keine Rolle.

Internetverzeichnisse eignen sich besonders dann, wenn Sie sich einen Überblick auf ein
Thema verschaffen möchten (als ersten Einstieg) oder wenn Sie bewertete Informationen zu
einem Thema suchen. Das mit Abstand größte Internetverzeichnis ist das Open Directory
Project (ODP). Allerdings hat das Verzeichnis einige Schwächen, z.B. erhält man bei der
Suche manchmal nur Fehlermeldungen. Außerdem machen einige Kategorie einen
ungepflegten Eindruck. Dafür verzichtet das ODP vollständig auf Werbung. Jeder kann sich
beim ODP als Redakteur anmelden und so beim Aufbau des Internetverzeichnisses mithelfen.
Außerdem kann jeder die Inhalte aus dem ODP z.B. zum Aufbau eigener Linksammlungen
nachnutzen. Viele andere Anbieter nutzen daher die Daten des ODP, u.a. das Google
Directory. Allerdings wird hier zusätzlich das bewährte Google-Ranking verwendet, es sind
weitere nützliche Google-Funktionen integriert und die Ladezeiten sind - anders als im OPD -
durchweg niedrig. Manchmal wird allerdings Werbung eingeblendet und teilweise wird man
bei einer Suche im Google Directory unvermittelt zur normalen Google-Suchmaschine
geführt. Auch einige Bibliotheken bieten kleine Internetverzeichnisse, speziell für
wissenschaftliche Webseiten an. Ein Beispiel hierfür sind z.B. die Linksammlungen in
unseren Fachinformationsportalen. Eine besondere Form von Internetverzeichnissen sind so
genannte "Social Bookmarking"-Dienste wie z.B. del.icio.us oder Mister Wong. Hier kann
jeder Nutzer Lesezeichen auf Internetseiten ablegen, diese mit Tags (Schlagwörtern) versehen
und auch kommentieren. Auf diese Weise entsteht eine riesige und hochaktuelle
Linksammlung, die allerdings durch kein Redaktionsteam gepflegt oder kontrolliert wird.

Spezialsuchmaschinen eigenen sich besonders gut, wenn Sie nur einen bestimmten Bereich
im Internet durchsuchen wollen, z.B. nur wissenschaftliche Internetseiten. Genau darauf
haben sich die Suchdienste Google Scholar und unsere eigene Suchmaschine BASE
spezialisiert. In Google Scholar finden Sie alle Arten von wissenschaftlichen Texten, sogar
Bestände aus Bibliotheken. Wenn Sie in Google Scholar ein Buch oder einen Aufsatz finden,
der in der Universitätsbibliothek Bielefeld vorhanden ist, erhalten Sie einen Hinweis (z.B.
SFX@UB Bielefeld), über den Sie feststellen können, unter welcher Signatur das Buch in
unserem Bestand zu finden ist. Unsere eigene wissenschaftliche Suchmaschine BASE
ermöglicht speziell die Suche in qualitätsgeprüften Quellen, die wissenschaftliche Dokumente
in der Regel frei verfügbar anbieten.
Weitere interessante Spezialsuchmaschinen sind Paperball und Google News, jeweils für die
Suche nach aktuellen Meldungen aus Tages- und Wochenzeitungen und die Wayback
Machine, die es ermöglicht, alte Versionen einer Internetseite wieder aufzufinden. Dies ist
besonders nützlich, falls die Inhalte der Internetseite inzwischen gelöscht wurden oder
kostenpflichtig sind. Allerdings muss Ihnen die Adresse (URL) der Internetseite bekannt sein,
von der Sie eine alte Version suchen.

Metasuchmaschinen ermöglichen die gleichzeitige Suche in vielen verschiedenen


Suchdiensten. Sie sind also die beste Wahl, wenn Sie "alles auf einmal" finden wollen. Dafür
müssen Sie aber oft Einschränkungen bei Suchfunktionen und auch bei der Trefferqualität
hinnehmen. Die Metasuchmaschine Clusty geht einen besonderen Weg. Die gefundenen
Dokumente werden nicht - wie sonst üblich - in einer langen unsortierten Trefferliste
angezeigt, sondern automatisch nach Themengebieten sortiert (das nennt sich dann
"Document Clustering", daher auch der Name der Suchmaschine). Damit können Sie leichter
Informationen zu dem Thema finden, das Sie interessiert. Leider werden Google und Yahoo
nicht durchsucht. search.com bieten zahlreichen verschiedene "Metasuchen" an, z.B. auch
nach Bildern, Videos oder Musik. Hier werden dann jeweils verschiedene
Spezialsuchmaschinen gleichzeitig durchsucht. Der Metacrawler durchsucht als einzige
Metasuchmaschine die drei großen Suchmaschinen Google, Yahoo und Ask. Dieser Vorteil
wird leider geschmälert, da Metacrawler auch Werbetreffer in die Trefferliste mit einbaut, die
nur unzureichend gekennzeichnet sind. Speziell für deutschsprachige Dokumente geeignet ist
Metager, ein Dienst des RRZN Hannover, und dessen Weiterentwicklung Metager2.

Als Alternative zu Suchdiensten empfiehlt sich insbesondere bei der Suche nach Fakten, z.B.
den Lebensdaten einer Person, der direkte Blick in ein Nachschlagewerk. Das bekanntest und
umfangreichste Nachschlagewerk weltweit ist die Wikipedia. Hier findet man zu vielen
Begriffen oft hilfreiche Informationen. Nützliche Artikel zeichnen sich dadurch aus, dass es
am Ende eine Liste mit weiteren Quellen und Internetseiten zu diesem Thema gibt. Besonders
gute Artikel sind zudem als "Exzellent", überdurchschnittlich gute Artikel als "Lesenswert"
gekennzeichnet. Die Artikel können in aller Regel von jedem Nutzer bearbeitet werden. Zu
jedem Artikel gibt es eine Diskussionsseite, in der auf Fehler, Unstimmigkeiten oder
zusätzliche Informationen hingewiesen wird, und eine Versionsgeschichte, anhand derer sich
alle Änderungen des Artikels rekonstruieren lassen. Da kein Nachschlagewerk der Welt völlig
fehlerfrei ist, lohnt sich neben der Wikipedia auch ein Blick in die Encyclopedia Britannica
und in Meyers Lexikon online, deren Artikel wie in der Wikipedia frei zugänglich sind und
z.T. auch bearbeitet werden können.

Neben den hier genannten Suchdiensten gibt es noch unzählige weitere.


Suchmaschinenverzeichnisse sammeln diese - insbesondere Spezialsuchmaschinen.
Besonders umfangreich sind das Suchlexikon mit etwa 2.600 deutschsprachigen und
länderspezifischen Suchdiensten und Klug Suchen, dass etwa 1.600 vorwiegend
deutschsprachige Suchdienste verzeichnet hat. Für den englischsprachigen Bereich ist die
Rubrik Searching aus dem Google Directory mit gut 1.700 Einträgen empfehlenswert. Wenn
Sie Links zu Suchdiensten mit Buch- und Bibliotheksbezug (Antiquariate, Buchhandel,
Diskographien, Verlage usw.) suchen, werden Sie im Werkzeugkasten des
Hochschulbibliothekszentrums von Nordrhein-Westfalen (HBZ NRW) fündig.

http://www.ub.uni-bielefeld.de/biblio/search/services/

Übungen zum Nachvollziehen


1. Suchen Sie in der Internetsuchmaschine Google (www.google.de) eine Antwort auf
die Frage: "Wer hat den Paket- und Brief-Express-Dienst DHL gegründet?". Benutzen
Sie die einfache Suchmaske.

2. Suchen Sie über die erweiterte Suchmaske von Google eine Antwort auf die Frage:
"Womit verdiente Franz Kafka seinen Lebensunterhalt?". Beziehen Sie mindestens ein
Synonym für den Begriff Lebensunterhalt mit in die Suchanfrage ein.

Nr. Erklärung
A Suchbereich
Hier können Sie wählen, ob Sie nach Internetseiten oder z.B. nach Bildern oder Nachrichten
suchen möchten. Für die Übungen belassen Sie es bei der Einstellung "Web". BSuchfeld
In dieses Suchfeld geben Sie Ihre Suchbegriffe ein.
C Sprache / Land
Hier können Sie die Suche z.B. nur auf deutschsprachige Seiten einschränken. Für die
Übungen wählen Sie die Einstellung "Das Web".
D Erweiterte Suche u.a.
Hier finden Sie u.a. einen Link auf die erweiterte Suche, mit der Sie komplexe Suchanfragen
auf einfachem Wege formulieren können.

Datenbanksuchsystem:

http://rzblx10.uni-regensburg.de/dbinfo/suche.phtml?
bib_id=ubbie&colors=7&ocolors=40&lett=l

METASUCHE :

http://thetis.hbz-nrw.de/Digibib?
SERVICE=TEMPLATE&SUBSERVICE=JUMPTO&DEST_SERVICE=TEMPLATE&DES
T_SUBSERVICE=MSEARCH_FRAME&DEST_MAINFRAMESUBSERVICE=MSEARC
H_SIMPLESEARCH&LOCATION=361