Angebote zu "Datenbanken" (288 Treffer)

Datenbanksysteme für Dummies
22,99 € *
ggf. zzgl. Versand

Datenbanken sind unverzichtbare Basis fast aller heutigen Informationssysteme. Dieses Buch vermittelt Ihnen das notwendige Grundlagenwissen dazu, vor allem zu relationalen Datenbanksystemen. Der Inhalt orientiert sich an den neuesten Empfehlungen der Gesellschaft für Informatik für das Studienfach Informatik. Im Mittelpunkt des praktischen Teils stehen die Datenbankmanagementsysteme Oracle Database XE und MySQL. Mit den zahlreich vorhandenen Übungsaufgaben können Sie Ihren Lernfortschritt überprüfen. Musterlösungen sind vorhanden.

Anbieter: buecher.de
Stand: 19.07.2017
Zum Angebot
Datenbankentwicklung lernen mit SQL Server 2016...
23,99 € *
ggf. zzgl. Versand

SQL Server 2016 und die kostenlose Version SQL Server 2016 Express sind ideal, um in die professionelle Datenbankentwicklung einzusteigen. Sie können mit ihnen komplexe Datenbankprojekte verwirklichen, die die Funktionalität einer Desktop-Datenbank wie Microsoft Access deutlich übersteigen. Wenn Sie tiefer in die Datenbankentwicklung mit einem professionellen Datenbankserver einsteigen wollen, ist dieses Buch genau das Richtige für Sie. Es vermittelt leicht verständlich sowohl die Datenbankgrundlagen als auch das Programmierwissen, das Sie benötigen, um die umfangreichen Möglichkeiten von SQL Server 2016 zu nutzen. Aufgrund des didaktisch durchdachten Konzepts mit vielen Übungen und Praxistipps ermöglicht dieses Buch Ihnen eine fundierte Einarbeitung in die Entwicklung von Datenbanken. Das Buch basiert auf der kostenfrei erhältlichen Version SQL Server 2016 Express, eignet sich aber auch für größere SQL-Server-Editionen. Aus dem Inhalt: - Neuerungen bei SQL Server 2016 - Installation und erste Schritte - Datenbanken und Tabellen erstellen und bearbeiten - Daten anzeigen und ändern - Sichten erstellen und verwenden - erweiterte SQL-Features (CTEs, Sequenzen, Temporal Tables etc.) - komplexe Datentypen (XML und JSON) - Debugging und Fehlerbehandlung - Sperren, Transaktionen und Deadlocks - gespeicherte Prozeduren, Funktionen, Trigger und Cursor - Datenbankadministration mit SQL, Benutzer, Rollen und Rechte - Daten sichern und bewegen, Reporting - Zusammenarbeit mit anderen SQL Server-Instanzen und -Editionen - Datenebenenanwendungen - SQL Server Data Tools - SQL Server und .NET Robert Panther ist Diplom-Informatiker (FH), er beschäftigt sich mittlerweile seit über 20 Jahren intensiv mit dem Microsoft SQL Server. Als Executive Consultant für CGI in Deutschland hat er als Entwickler, Administrator und Datenbank-Architekt zahlreiche Projekte erfolgreich mitgestaltet. Darüber hinaus schreibt er Fachartikel und Bücher rund um sein Spezialgebiet, ist regelmäßiger Sprecher auf Fachkonferenzen (Deutsche SQL Server Konferenz, BASTA!, SQLCON, Frankfurter Datenbanktage/IT-Tage) und in der Microsoft Data Platform Community (PASS) aktiv.

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot
Datenbankentwicklung lernen mit SQL Server 2016...
23,99 € *
ggf. zzgl. Versand

SQL Server 2016 und die kostenlose Version SQL Server 2016 Express sind ideal, um in die professionelle Datenbankentwicklung einzusteigen. Sie können mit ihnen komplexe Datenbankprojekte verwirklichen, die die Funktionalität einer Desktop-Datenbank wie Microsoft Access deutlich übersteigen. Wenn Sie tiefer in die Datenbankentwicklung mit einem professionellen Datenbankserver einsteigen wollen, ist dieses Buch genau das Richtige für Sie. Es vermittelt leicht verständlich sowohl die Datenbankgrundlagen als auch das Programmierwissen, das Sie benötigen, um die umfangreichen Möglichkeiten von SQL Server 2016 zu nutzen. Aufgrund des didaktisch durchdachten Konzepts mit vielen Übungen und Praxistipps ermöglicht dieses Buch Ihnen eine fundierte Einarbeitung in die Entwicklung von Datenbanken. Das Buch basiert auf der kostenfrei erhältlichen Version SQL Server 2016 Express, eignet sich aber auch für größere SQL-Server-Editionen. Aus dem Inhalt: - Neuerungen bei SQL Server 2016 - Installation und erste Schritte - Datenbanken und Tabellen erstellen und bearbeiten - Daten anzeigen und ändern - Sichten erstellen und verwenden - erweiterte SQL-Features (CTEs, Sequenzen, Temporal Tables etc.) - komplexe Datentypen (XML und JSON) - Debugging und Fehlerbehandlung - Sperren, Transaktionen und Deadlocks - gespeicherte Prozeduren, Funktionen, Trigger und Cursor - Datenbankadministration mit SQL, Benutzer, Rollen und Rechte - Daten sichern und bewegen, Reporting - Zusammenarbeit mit anderen SQL Server-Instanzen und -Editionen - Datenebenenanwendungen - SQL Server Data Tools - SQL Server und .NET Robert Panther ist Diplom-Informatiker (FH), er beschäftigt sich mittlerweile seit über 20 Jahren intensiv mit dem Microsoft SQL Server. Als Executive Consultant für CGI in Deutschland hat er als Entwickler, Administrator und Datenbank-Architekt zahlreiche Projekte erfolgreich mitgestaltet. Darüber hinaus schreibt er Fachartikel und Bücher rund um sein Spezialgebiet, ist regelmäßiger Sprecher auf Fachkonferenzen (Deutsche SQL Server Konferenz, BASTA!, SQLCON, Frankfurter Datenbanktage/IT-Tage) und in der Microsoft Data Platform Community (PASS) aktiv.

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot
Visual Business Analytics - Effektiver Zugang z...
54,99 € *
ggf. zzgl. Versand

Business-Intelligence-Lösungen sind für Unternehmen unabdingbar, um Datenmengen in vertretbarer Zeit zu analysieren und daraus resultierend Entscheidungen zu treffen. Dieses Buch zeigt den Weg auf, wie aus Daten mittels Visualisierung entscheidungsrelevante Informationen für den Empfänger werden. Neue, interaktive und grafische Darstellungen tragen dazu bei, dass Entscheider ihr Wissen und ihre Fähigkeiten besser nutzen können, um einen echten Mehrwert für ihr Unternehmen zu generieren. Die Autoren bieten eine fundierte Einführung in das Thema und geben einen praxisnahen Überblick über Visual Business Analytics mit seinen drei Teilgebieten: Information Design, Visual Business Intelligence und Visual Analytics. Sie erläutern anhand vieler Beispiele aus Business-Intelligence-Anwendungsszenarien, welche Darstellungsformen jeweils geeignet sind, um komplexe Zusammenhänge abzubilden, wie Unternehmen Visual Business Analytics erfolgreich nutzen können und welche zukünftigen Möglichkeiten sich durch interaktive Darstellungen ergeben. Im Einzelnen werden behandelt: • Visualisierung von Daten und Informationen • Reporting und Information Design • Diagrammtypen und -eigenschaften • Information-Design-Richtlinien • Visual Business Intelligence • Interaktive Visualisierung • Dashboard-Design • Visual Analytics in Big-Data-Szenarien Anwendungsbeispiele mit aktuellen Business-Intelligence-Werkzeugen im Bereich Visual Analytics und ein Blick in die Forschung runden das Buch ab. In der Edition TDWI erscheinen Titel, die vom dpunkt.verlag gemeinsam mit dem TDWI Germany e.V. ausgewählt und konzipiert werden. Inhaltliche Schwerpunkte dieser Reihe sind Business Intelligence und Data Warehousing. Buch-Blog: http://visualbablog.wordpress.com Dr. Jörn Kohlhammer ist Abteilungsleiter für den Bereich Visual Analytics am Fraunhofer IGD. Er studierte Informatik mit Betriebswirtschaftslehre an der LMU München und promovierte 2005 an der TU Darmstadt. Dr. Kohlhammer ist Autor und Co-Autor mehrerer Bücher und vieler Fachartikel und Konferenzbeiträge. Er ist regelmäßiger Redner bei Veranstaltungen und Kongressen in der Industrie und der Forschung, und anerkannter Experte zum Thema Visual Analytics und Visual Business Intelligence. Dirk U. Proff ist als Founder und Chief Executive Officer für die Bereiche Strategy und Corporate Development bei BLUEFORTE verantwortlich. Er studierte Wirtschaftsinformatik an der privaten Fachhochschule Wedel sowie Administration and Management an der Harvard University. Nach seinem Lehrauftrag für Betriebswirtschaftliche Informationsverarbeitung am Euro-Business-College war er für mehrere führende Unternehmensberatungen als Consultant und in unterschiedlichen Führungspositionen tätig. Neben Publikationen in Fachzeitschriften veröffentlicht er regelmäßig wissenschaftliche Artikel in Fach- und Lehrbüchern und hält zudem Vorträge auf Veranstaltungen und Konferenzen. Andreas Wiener ist Management Consultant bei BLUEFORTE und verantwortlich für das Geschäftsfeld Information Design & Visual Business Intelligence. Als Hichert Certified Consultant berät er Unternehmen und schult deren Mitarbeiter in den Themen Reporting und Dashboarding. Zudem hält er regelmäßig Vorträge auf Messen und Kongressen sowie an Hochschulen. Er bloggt auf www.informieren-statt-dekorieren.de und ist Verfasser der Visual Business Analytics Studie 2013, die in Kooperation mit dem Fraunhofer-Institut für Graphische Datenverarbeitung veröffentlicht wird.

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot
Von der Strategie zum Business Intelligence Com...
54,99 € *
ggf. zzgl. Versand

Business Intelligence (BI) stellt in Unternehmen die Versorgung mit entscheidungsorientierten Informationen sicher. Fachanwender und IT-Spezialisten beklagen allerdings häufig die Qualität der Informationen, die in der Regel auf eine fehlende Gesamtstrategie oder die unzureichende Organisation zurückzuführen ist. Die Autoren erörtern in diesem Buch die verschiedenen Probleme im Einsatz von BI und zeigen praktische Lösungsansätze auf. Sie entwickeln ein Vorgehensmodell, das Inhalte, Architektur und Organisation berücksichtigt. Dabei werden die verschiedenen Varianten eines Business Intelligence Competency Center (BICC), deren organisatorische Verankerung sowie Rollen und Aufgaben beschrieben. Behandelt werden im Einzelnen: • Konzeptioneller Rahmen einer BI-Strategie • Entwicklung einer BI-Strategie • Organisation eines BICC: - Funktionen und Personal - Aufbau und Einbettung im Unternehmen • Planung und Einführung eines BICC • Laufende BICC-Prozesse • Werkzeuge für den erfolgreichen Einsatz von BI Die 2. Auflage vertieft neue, wesentliche Aspekte des BICC wie Big Data, Mobile BI, Agile BI und Visual BI. »Das Buch kann somit gleichermaßen BI-Praktikern empfohlen werden, die u.a. die konkreten Checklisten, die klaren Best Practices und konkreten Beispiele schätzen werden, wie auch Lesern aus Forschung und Lehre, die einen Überblick über die relevanten Ansätze im Kontext der BI-Strategie und BI-Organisation suchen.« Aus dem Geleitwort von Dr. Henning Baars, Universität Stuttgart In der Edition TDWI erscheinen Titel, die vom dpunkt.verlag gemeinsam mit dem TDWI Germany e.V. ausgewählt und konzipiert werden. Inhaltliche Schwerpunkte dieser Reihe sind Business Intelligence und Data Warehousing. Tom Gansor ist als Mitglied der Geschäftsleitung bei der OPITZ CONSULTING Deutschland GmbH unter anderem für die Weiterentwicklung des Portfolios, für Innovation und die Lösungsentwicklung verantwortlich. Neben seiner Managementtätigkeit berät er Klienten zur strategischen Umsetzung innovativer IT-Lösungen, so auch bei BI-Systemen und BI-Organisationen. Tom Gansor arbeitet seit mehr als 15 Jahren im IT-Consulting, zuvor u. a. bei ORACLE, und war intensiv in IT- und BI-Projekten in unterschiedlichsten Branchen als Lösungsarchitekt und Projektleiter erfolgreich. Neben seiner Managementtätigkeit liegt sein fachlicher Schwerpunkt aktuell im Bereich der BI-Organisation und -Strategie. Dazu engagiert er sich in der BI-Community im Rahmen von Fachkonferenzen, Fachpublikationen und als Vorsitzender des regelmäßig durchgeführten TDWI-Roundtable Hamburg. Sein Engagement würdigte der TDWI mit Ernennung zum TDWI Europe Fellow. Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Anwendungsunternehmen innerhalb und außerhalb der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Business-Intelligence- und ERP-Projekte. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung. Andreas Totok beschäftigt sich seit 1996 mit dem Thema Business Intelligence. Nach seiner Promotion über die Modellierung von OLAP- und Data-Warehouse-Systemen war er mehrere Jahre bei einem internationalen Touristik-Konzern für das Management-informationssystem und die konzernweite BI-Strategie verantwortlich. Seit 2004 ist er im IT-Dienstleistungsbereich tätig. Er ist Autor von Fachartikeln und häufiger Referent auf Fachveranstaltungen. Für sein Engagement im TDWI wurde er 2013 zum TDWI Europe Fellow ernannt.

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot
Temporal Data Mining via Unsupervised Ensemble ...
60,63 € *
ggf. zzgl. Versand

Temporal Data Mining via Unsupervised Ensemble Learning provides the principle knowledge of temporal data mining in association with unsupervised ensemble learning and the fundamental problems of temporal data clustering from different perspectives. By providing three proposed ensemble approaches of temporal data clustering, this book presents a practical focus of fundamental knowledge and techniques, along with a rich blend of theory and practice. Furthermore, the book includes illustrations of the proposed approaches based on data and simulation experiments to demonstrate all methodologies, and is a guide to the proper usage of these methods. As there is nothing universal that can solve all problems, it is important to understand the characteristics of both clustering algorithms and the target temporal data so the correct approach can be selected for a given clustering problem. Scientists, researchers, and data analysts working with machine learning and data mining will benefit from this innovative book, as will undergraduate and graduate students following courses in computer science, engineering, and statistics. Includes fundamental concepts and knowledge, covering all key tasks and techniques of temporal data mining, i.e., temporal data representations, similarity measure, and mining tasks Concentrates on temporal data clustering tasks from different perspectives, including major algorithms from clustering algorithms and ensemble learning approaches Presents a rich blend of theory and practice, addressing seminal research ideas and looking at the technology from a practical point-of-view Dr Yang has a very solid and broad knowledge and experience in computer science, and in-depth expertise in machine learning, data mining and temporal data processing. His main research area is in the temporal data mining and unsupervised ensemble learning. In these topics, he has produced some internationally excellent research results including proposing and developing several innovation methods and algorithms. These works have been published in the international leading research journals or conferences such as IEEE Transactions on Neural Networks and Learning Systems, IEEE Transactions on Knowledge and Data Engineering, IEEE Transactions on Systems, Man, and Cybernetics- Part C, and Knowledge-Based Systems. His research results have attracted a lot of attentions from the machine learning research community and made the significant impact. As an evidence to illustrate the attention that his work has received and the impact his work has produced, his IEEE Transaction publication Temporal data clustering via weighted clustering ensemble with different representations has been cited more than 42 times based on Google scholar.

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot
Handbook of Linguistic Annotation
367,71 € *
ggf. zzgl. Versand

This handbook offers a thorough treatment of the science of linguistic annotation. Leaders in the field guide the reader through the process of modeling, creating an annotation language, building a corpus and evaluating it for correctness. Essential reading for both computer scientists and linguistic researchers. Linguistic annotation is an increasingly important activity in the field of computational linguistics because of its critical role in the development of language models for natural language processing applications. Part one of this book covers all phases of the linguistic annotation process, from annotation scheme design and choice of representation format through both the manual and automatic annotation process, evaluation, and iterative improvement of annotation accuracy. The second part of the book includes case studies of annotation projects across the spectrum of linguistic annotation types, including morpho-syntactic tagging, syntactic analyses, a range of semantic analyses (semantic roles, named entities, sentiment and opinion), time and event and spatial analyses, and discourse level analyses including discourse structure, co-reference, etc. Each case study addresses the various phases and processes discussed in the chapters of part one. Nancy Ide is Professor of Computer Science at Vassar College in Poughkeepsie, New York, USA. She has been in the field of computational linguistics for over 30 years and made significant contributions to research in word sense disambiguation, computational lexicography, discourse analysis, and the use of semantic web technologies for language data. She is founder of the Text Encoding Initiative (TEI), the first major standard for representing electronic language data, and later developed the XML Corpus Encoding Standard (XCES). More recently, she co-developed the ISO LAF/GrAF representation format for linguistically annotated data. She has also developed major corpora for American English, including the Open American National Corpus (OANC) and the Manually Annotated Sub-Corpus (MASC), and has been a pioneer in efforts to foster open data and resources. Professor Ide is Co-Editor-in-Chief of the journal Language Resources and Evaluation and Editor of the Springer book series Text, Speech, and Language Technology. James Pustejovsky is the TJX Feldberg professor of computer science at Brandeis University in Waltham, Massachusetts, United States. His expertise includes theoretical and computational modeling of language, specifically: Computational linguistics, Lexical semantics, Knowledge representation, temporal and spatial reasoning and Extraction. His main topics of research are Natural language processing generally, and in particular, the computational analysis of linguistic meaning. He proposed Generative Lexicon theory in lexical semantics. His other interests include temporal reasoning, event semantics, spatial language, language annotation, computational linguistics, and machine learning.

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot
Data Analysis in the Cloud - Models, Techniques...
34,45 € *
ggf. zzgl. Versand

Data Analysis in the Cloud introduces and discusses models, methods, techniques, and systems to analyze the large number of digital data sources available on the Internet using the computing and storage facilities of the cloud. Coverage includes scalable data mining and knowledge discovery techniques together with cloud computing concepts, models, and systems. Specific sections focus on map-reduce and NoSQL models. The book also includes techniques for conducting high-performance distributed analysis of large data on clouds. Finally, the book examines research trends such as Big Data pervasive computing, data-intensive exascale computing, and massive social network analysis. Introduces data analysis techniques and cloud computing concepts Describes cloud-based models and systems for Big Data analytics Provides examples of the state-of-the-art in cloud data analysis Explains how to develop large-scale data mining applications on clouds Outlines the main research trends in the area of scalable Big Data analysis Domenico Talia is a professor of computer engineering at University of Calabria and partner of two startups: DtoK Lab and Exeura. His research interests include parallel and distributed data mining algorithms, cloud computing, social data analysis, distributed knowledge discovery, mobile computing, green computing systems, peer-to-peer systems, and parallel programming. He is the author of several books including Service-Oriented Distributed Knowledge Discovery (CRC 2012) and Grid Middleware and Services: Challenges and Solutions (Springer 2010), and more than 300 papers in archival journals such as CACM, IEEE TKDE, ACM Computing Surveys, FGCS, Parallel Computing, IEEE Internet Computing and international conference proceedings. He is a member of the editorial boards of many journals including IEEE Transactions on Cloud Computing, the Future Generation Computer Systems journal, Journal of Cloud Computing, and The International Journal on Web and Grid Services.

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot
Building a Scalable Data Warehouse with Data Va...
60,63 € *
ggf. zzgl. Versand

The Data Vault was invented by Dan Linstedt at the U.S. Department of Defense, and the standard has been successfully applied to data warehousing projects at organizations of different sizes, from small to large-size corporations. Due to its simplified design, which is adapted from nature, the Data Vault 2.0 standard helps prevent typical data warehousing failures. Building a Scalable Data Warehouse covers everything one needs to know to create a scalable data warehouse end to end, including a presentation of the Data Vault modeling technique, which provides the foundations to create a technical data warehouse layer. The book discusses how to build the data warehouse incrementally using the agile Data Vault 2.0 methodology. In addition, readers will learn how to create the input layer (the stage layer) and the presentation layer (data mart) of the Data Vault 2.0 architecture including implementation best practices. Drawing upon years of practical experience and using numerous examples and an easy to understand framework, Dan Linstedt and Michael Olschimke discuss: How to load each layer using SQL Server Integration Services (SSIS), including automation of the Data Vault loading processes. Important data warehouse technologies and practices. Data Quality Services (DQS) and Master Data Services (MDS) in the context of the Data Vault architecture. Provides a complete introduction to data warehousing, applications, and the business context so readers can get-up and running fast Explains theoretical concepts and provides hands-on instruction on how to build and implement a data warehouse Demystifies data vault modeling with beginning, intermediate, and advanced techniques Discusses the advantages of the data vault approach over other techniques, also including the latest updates to Data Vault 2.0 and multiple improvements to Data Vault 1.0 Dan has more than 25 years of experience in the Data Warehousing and Business Intelligence field and is internationally known for inventing the Data Vault 1.0 model and the Data Vault 2.0 System of Business Intelligence. He helps business and government organizations around the world to achieve BI excellence by applying his proven knowledge in Big Data, unstructured information management, agile methodologies and product development. He has held training classes and presented at TDWI, Teradata Partners, DAMA, Informatica, Oracle user groups and Data Modeling Zone conference. He has a background in SEI/CMMI Level 5, and has contributed architecture efforts to petabyte scale data warehouses and offers high quality on-line training and consulting services for Data Vault.

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot
Computational Materials Engineering - Achieving...
145,18 € *
ggf. zzgl. Versand

Computational Materials Engineering: Achieving High Accuracy and Efficiency in Metals Processing Simulations describes the most common computer modeling and simulation techniques used in metals processing, from so-called fast models to more advanced multiscale models, also evaluating possible methods for improving computational accuracy and efficiency. Beginning with a discussion of conventional fast models like internal variable models for flow stress and microstructure evolution, the book moves on to advanced multiscale models, such as the CAFÉ method, which give insights into the phenomena occurring in materials in lower dimensional scales. The book then delves into the various methods that have been developed to deal with problems, including long computing times, lack of proof of the uniqueness of the solution, difficulties with convergence of numerical procedures, local minima in the objective function, and ill-posed problems. It then concludes with suggestions on how to improve accuracy and efficiency in computational materials modeling, and a best practices guide for selecting the best model for a particular application. Presents the numerical approaches for high-accuracy calculations Provides researchers with essential information on the methods capable of exact representation of microstructure morphology Helpful to those working on model classification, computing costs, heterogeneous hardware, modeling efficiency, numerical algorithms, metamodeling, sensitivity analysis, inverse method, clusters, heterogeneous architectures, grid environments, finite element, flow stress, internal variable method, microstructure evolution, and more Discusses several techniques to overcome modeling and simulation limitations, including distributed computing methods, (hyper) reduced-order-modeling techniques, regularization, statistical representation of material microstructure, and the Gaussian process Covers both software and hardware capabilities in the area of improved computer efficiency and reduction of computing time

Anbieter: ciando eBooks
Stand: 11.07.2017
Zum Angebot