Angebote zu "Informationstheorie" (9 Treffer)

Kategorien

Shops

Informatik
44,99 € *
ggf. zzgl. Versand

Das Buch ist eine unkonventionelle, auf intuitives Verständnis ausgerichtete Einführung in die theoretischen Grundlagen der praktischen Aspekte der Informatik. Dabei geht es nicht ausschließlich um die Entwicklung von Software. Beim Leser werden keine besonderen Vorkenntnisse vorausgesetzt. Es werden etwa Informationstheorie, Codierungstheorie, Zahlendarstellung und Numerik, Boolesche Algebra, Fuzzy-Logik sowie Quanten-Computer behandelt, wobei gewährleistet bleibt, dass leicht verständlich wird, wie auf diesem theoretischen Unterbau die praktische Realisierung eines Computers sowohl in Hardware als auch in Software erfolgen kann. Für die fünfte Auflage wurde das Buch komplett überarbeitet und auf den neuesten Stand gebracht.

Anbieter: buecher.de
Stand: 04.10.2019
Zum Angebot
Deep Learning. Das umfassende Handbuch
80,00 € *
ggf. zzgl. Versand

Mathematische Grundlagen für Machine und Deep Learning Umfassende Behandlung zeitgemäßer Verfahren: tiefe Feedforward-Netze, Regularisierung, Performance-Optimierung sowie CNNs, Rekurrente und Rekursive Neuronale Netze Zukunftsweisende Deep-Learning-Ansätze sowie von Ian Goodfellow neu entwickelte Konzepte wie Generative Adversarial Networks Deep Learning ist ein Teilbereich des Machine Learnings und versetzt Computer in die Lage, aus Erfahrungen zu lernen. Dieses Buch behandelt umfassend alle Aspekte, die für den Einsatz und die Anwendung von Deep Learning eine Rolle spielen: In Teil I erläutern die Autoren die mathematischen Grundlagen für Künstliche Intelligenz, Neuronale Netze, Machine Learning und Deep Learning. In Teil II werden die aktuellen in der Praxis genutzten Verfahren und Algorithmen behandelt. In Teil III geben die Autoren Einblick in aktuelle Forschungsansätze und zeigen neue zukunftsweisende Verfahren auf. Dieses Buch richtet sich an Studenten und alle, die sich in der Forschung mit Deep Learning beschäftigen sowie an Softwareentwickler und Informatiker, die Deep Learning für eigene Produkte oder Plattformen einsetzen möchten. Dabei werden Grundkenntnisse in Mathematik, Informatik und Programmierung vorausgesetzt. Teil I: Angewandte Mathematik und Grundlagen für das Machine Learning Lineare Algebra Wahrscheinlichkeits- und Informationstheorie Bayessche Statistik Numerische Berechnung Teil II: Deep-Learning-Verfahren Tiefe Feedforward-Netze Regularisierung Optimierung beim Trainieren tiefer Modelle Convolutional Neural Networks Sequenzmodellierung für Rekurrente und Rekursive Netze Praxisorientierte Methodologie Anwendungen: Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache Teil III: Deep-Learning-Forschung Lineare Faktorenmodelle Autoencoder Representation Learning Probabilistische graphische Modelle Monte-Carlo-Verfahren Die Partitionsfunktion Approximative Inferenz Tiefe generative Modelle wie Restricted Boltzmann Machines, Deep-Belief-Netze, Gerichtete Generative Netze, Variational Autoencoder u.v.m.

Anbieter: buecher.de
Stand: 02.10.2019
Zum Angebot
Einführung in Formale Sprachen, Berechenbarkeit...
34,95 € *
ggf. zzgl. Versand

Die Theoretische Informatik wird an deutschen Universitäten üblicherweise in zwei Blöcken angeboten. Der Autor trägt diesem Umstand Rechnung und bietet in zwei Bänden eine systematische und umfassende Einführung in dieses Themengebiet an. Der vorliegende 2. Band behandelt gut verständlich und anwendungsbezogen die Theorie ´´einfacher´´ Automaten und den mit diesen eng verknüpften formalen Sprachen, die theoretische Berechenbarkeit von Funktionen, den Begriff der praktischen Berechenbarkeit, die Theorie der NP-Vollständigkeit wie auch grundlegende Themen der Kryptographie. Zu den größten Herausforderungen unserer Zeit gehört die Erforschung von Information in Bezug auf ihre Generierung, ihre Extraktion und ihre Behandlung. Daher ist der zweite Teil des Buches einer Einführung in die Informations- und Lerntheorie gewidmet. Besprochen wird sowohl die klassische als auch die algorithmische Informationstheorie, die Theorie der Zufallsfolgen und die Inferenzsysteme. Das Buch enthält zahlreiche Übungsaufgaben verschiedener Schwierigkeitsgrade, die bestens geeignet sind, um den Stoff zu vertiefen. Ausführliche Literaturhinweise runden das Buch ab.

Anbieter: buecher.de
Stand: 02.10.2019
Zum Angebot
Informations- und Kodierungstheorie
34,99 € *
ggf. zzgl. Versand

Was ist Information? Wie kann man sie darstellen, sicher übertragen oder speichern? Viele Fragen, auf die das Buch Antworten gibt. Die Informationstheorie liefert die Grundlage für die Berechnung des Informationsgehalts von diskreten und kontinuierlichen Quellen und deren Darstellung in kodierter Form. So können erforderliche Speicher- und Kanalkapazitäten bei der Informationsverarbeitung und -übertragung in IT-Systemen bestimmt werden. Abschnitte im Kapitel Kanalkodierung wurden inhaltlich neu gestaltet und erweitert. Es zeigt Lösungen für eine sichere Informationsübertragung über gestörte Kanäle. Ausführlich werden Block- und blockfreie Kodes, serielle und parallele Kodeverkettungen mit hard decision- und (iterativer) soft decision-Dekodierung beschrieben, die zur Fehlererkennung und Fehlerkorrektur dienen. Der Inhalt Informationsquellen und deren Beschreibung - Kodierung diskreter Quellen - Nachrichten und Kanäle - Diskrete Kanäle - Analoge Kanäle - Quantisierung analoger Signale - Kanalkodierung und Fehlerkorrekturverfahren - Bewertung von Kanalkodes Die Zielgruppen Studierende der Informatik, Medieninformatik, Nachrichtentechnik, Mathematik an Universitäten und FachhochschulenInformatiklehrer und Praktiker Die Autoren Dr. Dagmar Schönfeld, TU Dresden Dr. Herbert Klimant, TU Dresden Dr. Rudi Piotraschke, TU Dresden

Anbieter: buecher.de
Stand: 02.10.2019
Zum Angebot
Das ist Information
38,00 € *
ggf. zzgl. Versand

Der Begriff Information wurde 1940 von Norbert Wiener mit seiner Kybernetik eingeführt. Wesentlich für seine große Verbreitung war Shannons Informationstheorie, die wichtige Grundlagen der Nachrichten-, Rechen- und Speichertechnik bereitstellte. Heute ist Information ein nahezu universell angewendeter Begriff, der aber leider sehr oft nur unscharf und intuitiv benutzt wird. Mit diesem Buch liegt wohl erstmalig eine exakte Begriffsdefinition vor. Sie geht weitgehend auf Wieners Einführung zurück. Information ist kein Objekt, sondern betrifft immer ein komplexes Geschehen, das aus drei Teilen besteht. Der stofflich-energetische Informationsträger wirkt auf ein spezifisches System ein und ruft in ihm und in dessen Umgebung eine spezielle Wirkung, das Informat hervor. Bei einer Musikaufzeichnung ist z. B. die verbogene Rille der Schallplatte der ursprüngliche Informationsträger, der über technische Schritte den Schall erzeugt, der schließlich auf Menschen einwirkt. Damit er die ursprünglich beabsichtigte Wirkung, das Informat hervorruft muss der Mensch (als angepasstes System) bereits über spezifische Musikerfahrungen verfügen. Im Allgemeinen besitzt Information vielfältige Möglichkeiten und Varianten. Sie werden detailliert begründet und exakt behandelt. Dabei ist es notwendig, fünf Aspekte der Information zu unterscheiden. Grundlegend ist der dreistufige Fall aus Informationsträger, System und Informat, der wegen der wichtigen und spezifischen Wirkung (dem Informat) W-Information genannt wird. Vielfach, insbesondere bei Sprache und Schrift werden jedoch nicht die Originale als Informationsträger benutzt. Statt ihrer werden im Sinne der Semiotik auf sie verweisende Zeichen verwendet. Dann sind u. a. zusätzlich mittels Klassenbildung und Axiomatik sehr nützliche Komprimierungen als Vereinfachungen der Prozesse möglich. Deshalb wird dieser Aspekt als Z-Information bezeichnet. Ein dritter Aspekt betrifft die Nachrichtentechnik und deren Grenzen, wie sie von Shannon eingeführt und inzwischen enorm erweitert und ganz entscheidend für ihre Optimierung sind. Deshalb sind diese Inhalte unter S-Information erfasst und betreffen u. a. die Übertragung, Fehlerkorrektur, Komprimierung und Datensicherheit. Besonders wichtig für die Information sind die Möglichkeiten der Speicherung. Dafür ist eine umfangreiche Speichertheorie entstanden. Im gespeicherten Zustand liegt jedoch die Information nur potentiell vor. Erst durch die Wiedergabe muss aus dem Speicherzustand erneut ein Informationsträger erzeugt werden. Deshalb wurde hierfür der Begriff P-Information gewählt. Hierbei ist die von Shannon einführte Entropie wesentlich. Leider wird sie (selbst von Experten) recht oft mangelhaft bis falsch behandelt. Deshalb wird sie hier möglich anschaulich, aber dennoch mathematisch exakt erklärt. Die höchste Stufe der Information entsteht mittels der Nutzung der Rechentechnik. Sie ermöglicht völlig neue Anwendungen, die u. a. zu virtuellen Welten führen. Deshalb wurde hierfür die Bezeichnung V-Information gewählt. Für alle Informationsarten werden die wichtigsten Beispiele eingeführt und ausführlich erklärt. So ist quasi ein Kompendium der Information mit genauer Erfassung ihrer Möglichkeiten und Grenzen bis hin zu den technischen Anwendungen entstanden. Da leider mit den vielen Möglichkeiten der Information auch ein umfangreicher Missbrauch entstanden ist und weiter entstehen wird, wurde ein Kapitel angefügt, das vor allem versucht, für die Zukunft einige Abgrenzungen und Maßnahmen aufzuzeigen,

Anbieter: buecher.de
Stand: 02.10.2019
Zum Angebot
Einführung in die Informationstheorie als Buch ...
54,99 € *
ggf. zzgl. Versand

Einführung in die Informationstheorie:Studienbuch für Mathematiker Informatiker Naturwissenschaftler und Ingenieure ab 3. Semester uni-texte. 4. Aufl. 1974 Ernst Henze

Anbieter: Hugendubel.de
Stand: 04.09.2019
Zum Angebot
Übungsaufgaben zur Informationstheorie als Buch...
44,99 € *
ggf. zzgl. Versand

Übungsaufgaben zur Informationstheorie:Lehrbuch f. Informatiker Mathematiker u. alle Naturwissenschaftler ab 3. Semester. . Auflage 1972 Maurice Denis-Papin

Anbieter: Hugendubel.de
Stand: 04.09.2019
Zum Angebot
Einführung in die Informationstheorie als Buch ...
54,99 € *
ggf. zzgl. Versand

Einführung in die Informationstheorie:Studienbuch für Informatiker Mathematiker und alle Naturwissenschaftler ab 3. Semester uni-texte. 3. Aufl. 1970 Ernst Henze/ Horst H. Homuth

Anbieter: Hugendubel.de
Stand: 04.09.2019
Zum Angebot
Deep Learning. Das umfassende Handbuch (eBook, ...
69,99 € *
ggf. zzgl. Versand

Mathematische Grundlagen für Machine und Deep Learning Umfassende Behandlung zeitgemäßer Verfahren: tiefe Feedforward-Netze, Regularisierung, Performance-Optimierung sowie CNNs, Rekurrente und Rekursive Neuronale Netze Zukunftsweisende Deep-Learning-Ansätze sowie von Ian Goodfellow neu entwickelte Konzepte wie Generative Adversarial Networks Deep Learning ist ein Teilbereich des Machine Learnings und versetzt Computer in die Lage, aus Erfahrungen zu lernen. Dieses Buch behandelt umfassend alle Aspekte, die für den Einsatz und die Anwendung von Deep Learning eine Rolle spielen: In Teil I erläutern die Autoren die mathematischen Grundlagen für Künstliche Intelligenz, Neuronale Netze, Machine Learning und Deep Learning. In Teil II werden die aktuellen in der Praxis genutzten Verfahren und Algorithmen behandelt. In Teil III geben die Autoren Einblick in aktuelle Forschungsansätze und zeigen neue zukunftsweisende Verfahren auf. Dieses Buch richtet sich an Studenten und alle, die sich in der Forschung mit Deep Learning beschäftigen sowie an Softwareentwickler und Informatiker, die Deep Learning für eigene Produkte oder Plattformen einsetzen möchten. Dabei werden Grundkenntnisse in Mathematik, Informatik und Programmierung vorausgesetzt. Teil I: Angewandte Mathematik und Grundlagen für das Machine Learning Lineare Algebra Wahrscheinlichkeits- und Informationstheorie Bayessche Statistik Numerische Berechnung Teil II: Deep-Learning-Verfahren Tiefe Feedforward-Netze Regularisierung Optimierung beim Trainieren tiefer Modelle Convolutional Neural Networks Sequenzmodellierung für Rekurrente und Rekursive Netze Praxisorientierte Methodologie Anwendungen: Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache Teil III: Deep-Learning-Forschung Lineare Faktorenmodelle Autoencoder Representation Learning Probabilistische graphische Modelle Monte-Carlo-Verfahren Die Partitionsfunktion Approximative Inferenz Tiefe generative Modelle wie Restricted Boltzmann Machines, Deep-Belief-Netze, Gerichtete Generative Netze, Variational Autoencoder u.v.m.

Anbieter: buecher.de
Stand: 02.10.2019
Zum Angebot