Angebote zu "Volltextsuche" (11 Treffer)

Kategorien

Shops

Volltextsuche im Kontext relationaler  Datenban...
19,90 CHF *
ggf. zzgl. Versand

Studienarbeit aus dem Jahr 2008 im Fachbereich Informatik - Technische Informatik, Note: ohne Note, Ruprecht-Karls-Universität Heidelberg, Sprache: Deutsch, Abstract: Die Volltextsuche, welche Mitte der 70er Jahre aufkam, löste herkömmliche Suchmethoden in vielen Bereichen komplett ab. Denn mit ihr wurde es erstmals möglich, theoretisch jedes Dokument aufzufinden, das nur mindestens ein Wort der Suchanfrage enthält. So ist z.B. eine heutige Internetrecherche ohne das Verfahren der Volltextsuche undenkbar geworden. Für herkömmliche Suchverfahren wäre eine zeitaufwendige, händische Eingabe aller erforderlichen Schlüsselbegriffe, in diesem Fall jedes Wort einer Internetseite bzw. Dokuments, notwendig, um vergleichbare Resultate erzielen zu können. Wobei diese Resultate dann nur unter einem erheblichen Mehraufwand und einer längeren Suchzeit zu erreichen wären. Vergleichsweise hierzu führt die Volltextsuche, durch die Speicherung des aufbereiteten Textes und die Verwendung immer schnelleren Algorithmen, Suchanfragen effektiver und schneller durch. Die Volltextsuche ist zwar kein klassischer Bestandteil relationaler Datenbanken, jedoch wird diese Funktionalität in heutiger Zeit in immer mehr Produkte integriert, um den Anforderungen des Benutzers gerecht zu werden. Mit dieser Funktionserweiterung der relationalen DBMS1 können Volltextsuchen direkt auf eine bestehende relationale Datenbank angewandt werden. Auf eine externe Volltextsuchmaschine und eine dadurch möglicherweise notwendig werdende doppelte Datenhaltung für beide DBMS, kann somit verzichtet werden. So bietet die Volltextsuche in relationalen DBMS eine schnelle und flexible Lösung, um linguistische Suchvorgänge zu realisieren.

Anbieter: Orell Fuessli CH
Stand: 06.12.2019
Zum Angebot
Konrad, R: Volltextsuche im Kontext relationale...
16,99 € *
ggf. zzgl. Versand

Erscheinungsdatum: 12.12.2009, Medium: Taschenbuch, Einband: Kartoniert / Broschiert, Titel: Volltextsuche im Kontext relationaler Datenbanken am Beispiel einer systeminternen DBMS- Komponente von MySQL, Auflage: 4. Auflage von 1990 // 4. Auflage, Autor: Konrad, Rebecca, Verlag: GRIN Verlag, Sprache: Deutsch, Rubrik: Informatik, Seiten: 64, Informationen: Paperback, Gewicht: 107 gr, Verkäufer: averdo

Anbieter: averdo
Stand: 06.12.2019
Zum Angebot
Supervised Learning Algorithmus für Stellenanze...
14,99 € *
ggf. zzgl. Versand

Diplomarbeit aus dem Jahr 2011 im Fachbereich Informatik - Künstliche Intelligenz, Note: 1,3, Ludwig-Maximilians-Universität München (Centrum für Informations- und Sprachverarbeitung), Veranstaltung: Computerlinguistik, Information Extraktion, Informatik, Sprache: Deutsch, Abstract: Neben den vielen Jobportalen, die als Datenbanken funktionieren, wo Informationen wie Branche, Jobart oder Qualifikationen manuell eingegeben werden, gibt es auch Jobsuchdienste, die das Web durchsuchen, relevante Informationen extrahieren und sie automatisch klassifizieren. Die Klassifizierung erhöht die Wahrscheinlichkeit dem Benutzer präzise und seinen Ansprüchen adäquate Informationen zu liefern. Die extrahierten Informationen zu klassifizieren ist oft ein kompliziertes Unterfangen. Die Jobanzeigen sind meistens nicht kategorisiert oder so kategorisiert, dass die Kategorie nicht ermittelt und die Anzeige nicht zugeordnet werden kann. Nicht zuletzt liegt das Problem an den Suchdiensten selbst. Viele von ihnen gehören zu den Suchdiensten der ersten Generation, die auf der Volltextsuche ohne semantisch-syntaktisch-orthografische Analyse basieren und keine Gegebenheiten der Jobwelt berücksichtigen. Die vorliegende Arbeit greift das Problem der Information Extraktion basierten Textklassifikation auf und strebt die Erstellung des semiautomatischen Algorithmus für die Stellenanzeigenklassifikation nach vorgegebenen Jobsektoren an. Im theoretischen Teil der Arbeit werden Jobsektoren analysiert, Verfahren der Textklassifikation, Kontexterstellung und Lexikonbootstrapping mithilfe von lokalen Grammatiken besprochen sowie ein konkreter Lösungsansatz dargestellt, der auf der semantisch-syntaktischen Analyse von Stellenanzeigen mithilfe von Korpusbearbeitungstool UNITEX basiert. Im praktischen Teil der Arbeit wird ein Verfahren zur semiautomatischen Textklassifikation dargestellt. Es werden Informationen über Textkorpora gegeben, einzelne Preprozessing-Schritte erläutert, lokale Grammatiken von Stellenanzeigen präsentiert, Seedlisten von Fachtermini beschrieben sowie der Lernprozess erklärt.

Anbieter: Thalia AT
Stand: 06.12.2019
Zum Angebot
Supervised Learning Algorithmus für Stellenanze...
18,90 CHF *
ggf. zzgl. Versand

Diplomarbeit aus dem Jahr 2011 im Fachbereich Informatik - Künstliche Intelligenz, Note: 1,3, Ludwig-Maximilians-Universität München (Centrum für Informations- und Sprachverarbeitung), Veranstaltung: Computerlinguistik, Information Extraktion, Informatik, Sprache: Deutsch, Abstract: Neben den vielen Jobportalen, die als Datenbanken funktionieren, wo Informationen wie Branche, Jobart oder Qualifikationen manuell eingegeben werden, gibt es auch Jobsuchdienste, die das Web durchsuchen, relevante Informationen extrahieren und sie automatisch klassifizieren. Die Klassifizierung erhöht die Wahrscheinlichkeit dem Benutzer präzise und seinen Ansprüchen adäquate Informationen zu liefern. Die extrahierten Informationen zu klassifizieren ist oft ein kompliziertes Unterfangen. Die Jobanzeigen sind meistens nicht kategorisiert oder so kategorisiert, dass die Kategorie nicht ermittelt und die Anzeige nicht zugeordnet werden kann. Nicht zuletzt liegt das Problem an den Suchdiensten selbst. Viele von ihnen gehören zu den Suchdiensten der ersten Generation, die auf der Volltextsuche ohne semantisch-syntaktisch-orthografische Analyse basieren und keine Gegebenheiten der Jobwelt berücksichtigen. Die vorliegende Arbeit greift das Problem der Information Extraktion basierten Textklassifikation auf und strebt die Erstellung des semiautomatischen Algorithmus für die Stellenanzeigenklassifikation nach vorgegebenen Jobsektoren an. Im theoretischen Teil der Arbeit werden Jobsektoren analysiert, Verfahren der Textklassifikation, Kontexterstellung und Lexikonbootstrapping mithilfe von lokalen Grammatiken besprochen sowie ein konkreter Lösungsansatz dargestellt, der auf der semantisch-syntaktischen Analyse von Stellenanzeigen mithilfe von Korpusbearbeitungstool UNITEX basiert. Im praktischen Teil der Arbeit wird ein Verfahren zur semiautomatischen Textklassifikation dargestellt. Es werden Informationen über Textkorpora gegeben, einzelne Preprozessing-Schritte erläutert, lokale Grammatiken von Stellenanzeigen präsentiert, Seedlisten von Fachtermini beschrieben sowie der Lernprozess erklärt.

Anbieter: Orell Fuessli CH
Stand: 06.12.2019
Zum Angebot
Suchmaschinen im Internet. Entwicklung und Bede...
12,99 € *
ggf. zzgl. Versand

Studienarbeit aus dem Jahr 2015 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1,7, , Sprache: Deutsch, Abstract: Das Unternehmen Google Inc. hat in nur wenigen Jahren eine noch rasantere Entwicklung als das Internet selbst durchgemacht und sich innerhalb kurzer Zeit im Suchmaschinenmarkt als Marktführer behauptet. In der folgenden Arbeit soll die Entwicklung und Bedeutung von Google beleuchtet werden. Mit der rasanten Entwicklung des Internets zum Web 2.0 wächst die Anzahl digital verfügbarer Informationen immer weiter. Suchmaschinen haben sich hierbei als unverzichtbares Instrument entwickelt, um sich in dieser komplexen Vielfalt und Informationsfülle zurechtzufinden. Mit Hilfe von Suchmaschinen wird das Internet durchsucht und Ergebnisse selektiert. Diese Technologie ist seit Beginn des Internets sehr beliebt und gehört zu den meistgenutzten Anwendungen. Ohne die einfache Volltextsuche ist der Zugang zu den Informationen im Internet heute kaum noch möglich. Der Name Google wird heutzutage synonym für die Online-Suche genutzt. Global dominiert Google in fast allen Ländern den Suchmaschinenmarkt. Um seinen Marktanteil zu behaupten und weiter auszudehnen, entwickelte Google seit Unternehmensgründung zahlreiche innovative Anwendungen, wie zum Beispiel Google Mail und Google Maps, die neben der Suche weitere Dienstleistungen im Internet abdecken. Des Weiteren bietet Google einen eigenen Internetbrowser mit Namen Chrome und nimmt Beteiligungen an anderen Unternehmen wahr.

Anbieter: Thalia AT
Stand: 06.12.2019
Zum Angebot
Suchmaschinen im Internet. Entwicklung und Bede...
15,90 CHF *
ggf. zzgl. Versand

Studienarbeit aus dem Jahr 2015 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1,7, , Sprache: Deutsch, Abstract: Das Unternehmen Google Inc. hat in nur wenigen Jahren eine noch rasantere Entwicklung als das Internet selbst durchgemacht und sich innerhalb kurzer Zeit im Suchmaschinenmarkt als Marktführer behauptet. In der folgenden Arbeit soll die Entwicklung und Bedeutung von Google beleuchtet werden. Mit der rasanten Entwicklung des Internets zum Web 2.0 wächst die Anzahl digital verfügbarer Informationen immer weiter. Suchmaschinen haben sich hierbei als unverzichtbares Instrument entwickelt, um sich in dieser komplexen Vielfalt und Informationsfülle zurechtzufinden. Mit Hilfe von Suchmaschinen wird das Internet durchsucht und Ergebnisse selektiert. Diese Technologie ist seit Beginn des Internets sehr beliebt und gehört zu den meistgenutzten Anwendungen. Ohne die einfache Volltextsuche ist der Zugang zu den Informationen im Internet heute kaum noch möglich. Der Name Google wird heutzutage synonym für die Online-Suche genutzt. Global dominiert Google in fast allen Ländern den Suchmaschinenmarkt. Um seinen Marktanteil zu behaupten und weiter auszudehnen, entwickelte Google seit Unternehmensgründung zahlreiche innovative Anwendungen, wie zum Beispiel Google Mail und Google Maps, die neben der Suche weitere Dienstleistungen im Internet abdecken. Des Weiteren bietet Google einen eigenen Internetbrowser mit Namen Chrome und nimmt Beteiligungen an anderen Unternehmen wahr.

Anbieter: Orell Fuessli CH
Stand: 06.12.2019
Zum Angebot
Die Geschichte vom Suchen und Finden in einer d...
11,99 € *
ggf. zzgl. Versand

Bachelorarbeit aus dem Jahr 2010 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1.3, Technische Universität Dresden, Sprache: Deutsch, Abstract: Das rasante Wachstum des Internets hält kontinuierlich an und verknüpft eine unvorstellbar große Menge an Daten. Schon lange ist es auf eine Größe angewachsen, bei der eine sinnvolle Nutzung ohne automatisierte Hilfsmittel nicht mehr möglich ist. Zwar ist aufgrund der dezentralen Struktur des Internets eine genaue Berechnung des existenten Datenumfangs kaum möglich, erhobene Schätzungen versuchen aber einen Eindruck davon zu vermitteln. So besagt eine Studie der IDC, dass sich die digitalen Informationen bereits 2006 auf 161 Exabyte belief. Vorhersagen über die weitere Entwicklung gehen davon aus, dass diese Masse sich bis 2010 von 161 auf 988 Exabytes mehr als versechsfacht hat. Außerdem ergab die Studie, dass ca. 95% der Daten im Internet in unstrukturierter Form vorliegen. Diese nutzbringend zu verarbeiten, stellt eine große Herausforderung dar (Gantz, 2007). Eine effektive Suche nach relevanten Informationen in dieser digitalen Welt bildet den Grundstein der Informationsgewinnung. Kurz nach der Erfindung des World Wide Webs galt in den Jahren 1991 bis 1994 das 'Browsen' als die dominierende Fortbewegungsmethode in diesen Netz. Parallel dazu entwickelten sich die ersten Webcrawler, welche die Dokumente des Internets automatisch durchsuchen und in Datenbanken indexierten. Die automatische Volltextsuche wurde möglich. Mit dieser neuen Option wandelte sich das Suchverhalten der Nutzer. Anstatt zu erraten, welche Listeneinträge am passendsten sind, konnten nun Suchbegriffe eingegeben und die Relevanz einzelner Treffer einer Ergebnisliste überprüft werden. Die Geschwindigkeit des Suchens wurde durch dieses neue Konzept erheblich erhöht, nicht aber die Geschwindigkeit des Findens. Denn auch die Anzahl der potentiell relevanten Ergebnisse stieg deutlich an (Buzinkay, 2006, S. 177). So durchsuchen Webcrawler stetig das Netz nach relevanten Informationen. Doch bleibt ihnen der größte Teil des World Wide Webs verborgen und nur ein Teil der tatsächlich vorhandenen Dokumente kann gefunden werden. Darüber hinaus liefert eine konkrete Suchabfrage eine so unfassbar große Menge an Treffern, dass die Wahrscheinlichkeit eines Fundes beim ersten Ergebnis der Wahrscheinlichkeit eines Lottogewinns nahe kommt. Durch Mehrdeutigkeiten im Text, die Komplexität und die schiere Masse des WWW stoßen traditionelle Suchmaschinen schnell an ihre Grenzen (Sack, 2010, S. 14).

Anbieter: Thalia AT
Stand: 06.12.2019
Zum Angebot
Die Geschichte vom Suchen und Finden in einer d...
14,90 CHF *
ggf. zzgl. Versand

Bachelorarbeit aus dem Jahr 2010 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1.3, Technische Universität Dresden, Sprache: Deutsch, Abstract: Das rasante Wachstum des Internets hält kontinuierlich an und verknüpft eine unvorstellbar grosse Menge an Daten. Schon lange ist es auf eine Grösse angewachsen, bei der eine sinnvolle Nutzung ohne automatisierte Hilfsmittel nicht mehr möglich ist. Zwar ist aufgrund der dezentralen Struktur des Internets eine genaue Berechnung des existenten Datenumfangs kaum möglich, erhobene Schätzungen versuchen aber einen Eindruck davon zu vermitteln. So besagt eine Studie der IDC, dass sich die digitalen Informationen bereits 2006 auf 161 Exabyte belief. Vorhersagen über die weitere Entwicklung gehen davon aus, dass diese Masse sich bis 2010 von 161 auf 988 Exabytes mehr als versechsfacht hat. Ausserdem ergab die Studie, dass ca. 95% der Daten im Internet in unstrukturierter Form vorliegen. Diese nutzbringend zu verarbeiten, stellt eine grosse Herausforderung dar (Gantz, 2007). Eine effektive Suche nach relevanten Informationen in dieser digitalen Welt bildet den Grundstein der Informationsgewinnung. Kurz nach der Erfindung des World Wide Webs galt in den Jahren 1991 bis 1994 das 'Browsen' als die dominierende Fortbewegungsmethode in diesen Netz. Parallel dazu entwickelten sich die ersten Webcrawler, welche die Dokumente des Internets automatisch durchsuchen und in Datenbanken indexierten. Die automatische Volltextsuche wurde möglich. Mit dieser neuen Option wandelte sich das Suchverhalten der Nutzer. Anstatt zu erraten, welche Listeneinträge am passendsten sind, konnten nun Suchbegriffe eingegeben und die Relevanz einzelner Treffer einer Ergebnisliste überprüft werden. Die Geschwindigkeit des Suchens wurde durch dieses neue Konzept erheblich erhöht, nicht aber die Geschwindigkeit des Findens. Denn auch die Anzahl der potentiell relevanten Ergebnisse stieg deutlich an (Buzinkay, 2006, S. 177). So durchsuchen Webcrawler stetig das Netz nach relevanten Informationen. Doch bleibt ihnen der grösste Teil des World Wide Webs verborgen und nur ein Teil der tatsächlich vorhandenen Dokumente kann gefunden werden. Darüber hinaus liefert eine konkrete Suchabfrage eine so unfassbar grosse Menge an Treffern, dass die Wahrscheinlichkeit eines Fundes beim ersten Ergebnis der Wahrscheinlichkeit eines Lottogewinns nahe kommt. Durch Mehrdeutigkeiten im Text, die Komplexität und die schiere Masse des WWW stossen traditionelle Suchmaschinen schnell an ihre Grenzen (Sack, 2010, S. 14).

Anbieter: Orell Fuessli CH
Stand: 06.12.2019
Zum Angebot
Natur und Technik: Informatik click & teach 6 Box
26,99 € *
ggf. zzgl. Versand

Jetzt auch in der handlichen Box mit Freischaltcode für Ihr Bücherregal: click & teach! Bestellen Sie Ihre click & teach Box, zahlen Sie bequem per Rechnung und erhalten Sie Ihren individuellen Freischaltcode, den Sie ganz einfach in Ihrem C.C.Buchner-Onlinekonto aktivieren können. Unterrichtsvorbereitung? click & teach! Mit click & teach, unserem neuen Angebot für eine schnelle und unkomplizierte Unterrichtsvorbereitung, können Sie Ihren digitalen Arbeitsplatz rund um das Schulbuch von C.C.Buchner selbst gestalten! click & teach zu Natur und Technik 6 - Schwerpunkt Informatik bietet Ihnen: das vollständige digitale Schulbuch im Zentrum der Anwendung, ausführliche Lösungen zu allen Aufgaben des Schülerbandes (als Gesamtdokument oder auf Basis der Einzelseiten), didaktische Hinweise zu allen Unterkapiteln des Buches (als Gesamtdokument oder auf Basis der Einzelseiten), Dateien als Grundlage für die Bearbeitung der Aufgaben des Buches, unter anderem: ObjectDraw-Dateien, EOS 2-Dateien, word-Dateien, PowerPoint-Dateien, Textvarianten der Merkkästen als Grundlage für mögliche Tafelbilder oder Merkzettel, Zum Kapitelabschluss weitere vernetzende Anwendungsaufgaben zum Üben und Vertiefen, Das große Info-Quiz als Arbeitsblatt aufbereitet für eine schnelle und unkomplizierte Einsetzung, alle Mediencode-Inhalte aus dem Schülerband als Spot zum direkten Öffnen, viele Bilder und Grafiken des Schülerbandes zur Vergrößerung (teilweise auch zum Download), eine direkte Anbindung der Materialien über Spots auf der Buchdoppelseite, hilfreiche Werkzeuge zum Arbeiten mit den digitalen Schulbuchseiten: Markieren, Kopieren, Zoomen, verlinktes Inhaltsverzeichnis, Volltextsuche etc., eine Umgebung, in der eigene digitale Materialien mit eingebunden und für den Unterricht genutzt werden können, die Möglichkeit, Materialien herunterzuladen, abzuspeichern (z.B. auf einen USB-Stick) und offline zu verwenden, mit dem Unterrichtsplaner ein nützliches Werkzeug für die Vorbereitung und Durchführung Ihrer Unterrichtsstunden. Eine Demoversion finden Sie unter: Erklärfilm Lizenzmodelle

Anbieter: Thalia AT
Stand: 06.12.2019
Zum Angebot