Deep Learning Tutorial: Künstliche Intelligenz mit Deep Learning

Dieser Blog zum Deep Learning Tutorial hilft Ihnen dabei, alles über Deep Learning und seine Beziehung zu maschinellem Lernen und künstlicher Intelligenz zu verstehen.

Als wichtige Untergruppe des maschinellen Lernens ist die Nachfrage nach hat einen immensen Anstieg erlebt, insbesondere unter denjenigen, die daran interessiert sind, die grenzenlosen Möglichkeiten der KI zu erschließen.Inspiriert von der wachsenden Popularität von Deep Learning habe ich mir überlegt, eine Reihe von Blogs zu erstellen, die Sie über diesen neuen Trend im Bereich der künstlichen Intelligenz informieren und Ihnen helfen, zu verstehen, worum es geht. Dies ist der erste der vielen Blogs in der Reihe mit dem Namen - Deep Learning Tutorial .

Das Deep Learning Tutorial

In diesem Deep Learning Tutorial-Blog werde ich Sie durch die folgenden Dinge führen, die als Grundlagen für die kommenden Blogs dienen:





  • Was ließ Deep Learning entstehen
  • Was ist Deep Learning und wie funktioniert es?

Sie können diese Aufzeichnung des Deep Learning-Lernprogramms durchgehen, in der unser Kursleiter die Themen ausführlich anhand von Beispielen erläutert hat, die Ihnen helfen, dieses Konzept besser zu verstehen.

Deep Learning Tutorial | Deep Learning Neuronale Netze | Edureka

Anwendungen der künstlichen Intelligenz und des tiefen Lernens

Denken Sie jetzt darüber nach, anstatt dass Sie Ihre ganze Arbeit erledigen, haben Sie eine Maschine, die sie für Sie fertigstellt, oder sie kann etwas tun, was Sie für überhaupt nicht möglich gehalten haben. Beispielsweise:



Vorhersage der Zukunft - Deep Learning Tutorial - Edureka

Die Zukunft voraussagen: Es kann uns helfen, Erdbeben, Tsunamis usw. im Voraus vorherzusagen, sodass vorbeugende Maßnahmen ergriffen werden können, um viele Leben vor dem Sturz in die Fänge von Naturkatastrophen zu retten.

Power Bi vs Tableau 2016
Chat-Bots: Sie alle hätten von Siri gehört, dem sprachgesteuerten virtuellen Assistenten von Apple. Glauben Sie mir, mit Hilfe von Deep Learning werden diese virtuellen Hilfen von Tag zu Tag intelligenter. Tatsächlich kann sich Siri an den Benutzer anpassen und eine bessere persönliche Unterstützung bieten.
Selbstfahrende Autos: Stellen Sie sich vor, wie unglaublich es für körperbehinderte und ältere Menschen wäre, die Schwierigkeiten haben, alleine zu fahren. Abgesehen davon wird es Millionen unschuldiger Menschenleben retten, die jedes Jahr aufgrund menschlicher Fehler einen Verkehrsunfall erleiden.

Google AI Eye Doctor: Es handelt sich um eine kürzlich von Google ergriffene Initiative, bei der Google mit einer indischen Augenpflegekette zusammenarbeitet, um eine KI-Software zu entwickeln, mit der Netzhaut-Scans untersucht und ein Zustand namens diabetische Retinopathie identifiziert werden kann, der zur Erblindung führen kann.

AI Music Composer: Nun, wer hätte gedacht, dass wir mit Deep Learning einen KI-Musikkomponisten haben können? Daher wäre ich nicht überrascht zu hören, dass die nächstbeste Musik von einer Maschine gegeben wird.
Eine Traumlesemaschine: Dies ist einer meiner Favoriten, eine Maschine, die Ihre Träume in Form von Videos oder Ähnlichem festhalten kann. Bei so vielen unrealistischen Anwendungen von AI & Deep Learning, die wir bisher gesehen haben, war ich nicht überrascht, dass dies vor einigen Jahren in Japan an drei Testpersonen versucht wurde und sie eine Genauigkeit von nahezu 60% erreichen konnten. Das ist etwas Unglaubliches und doch Wahres.


Ich bin mir ziemlich sicher, dass einige dieser realen Anwendungen von AI & Deep Learning Gänsehaut verursacht hätten. Also gut, dies bildet die Basis für Sie und jetzt sind wir bereit, in diesem Deep Learning-Tutorial weiterzumachen und zu verstehen, was künstliche Intelligenz ist.



Was ist künstliche Intelligenz?

Künstliche Intelligenz ist nichts anderes als die Fähigkeit einer Maschine, intelligentes menschliches Verhalten nachzuahmen. KI wird erreicht, indem ein menschliches Gehirn nachgeahmt wird, indem man versteht, wie es denkt, wie es lernt, entscheidet und arbeitet, während es versucht, ein Problem zu lösen.

Beispielsweise: Eine Maschine, die Schach spielt, oder eine sprachaktivierte Software, die Ihnen bei verschiedenen Dingen in Ihrem iPhone hilft, oder ein Kennzeichenerkennungssystem, das das Kennzeichen eines schnell fahrenden Autos erfasst und verarbeitet, um die Zulassungsnummer zu extrahieren und den Besitzer des Autos zu identifizieren . All dies war vorher nicht sehr einfach zu implementieren Tiefes Lernen . Lassen Sie uns nun die verschiedenen Untergruppen der künstlichen Intelligenz verstehen.

Teilmengen der künstlichen Intelligenz

Bis jetzt hätten Sie viel über künstliche Intelligenz, maschinelles Lernen und tiefes Lernen gehört. Kennen Sie jedoch die Beziehung zwischen allen drei? Grundsätzlich ist Deep Learning ein Teilbereich des maschinellen Lernens und Machine Learning ein Teilbereich der künstlichen Intelligenz, wie in der folgenden Abbildung dargestellt:

Wenn wir uns so etwas ansehen AlphaGo Es wird oft als großer Erfolg für tiefes Lernen dargestellt, aber es ist tatsächlich eine Kombination von Ideen aus verschiedenen Bereichen der KI und des maschinellen Lernens. Tatsächlich wären Sie überrascht zu hören, dass die Idee hinter tiefen neuronalen Netzen nicht neu ist, sondern aus den 1950er Jahren stammt. Aufgrund der heutzutage verfügbaren High-End-Ressourcenfähigkeit wurde es jedoch möglich, es praktisch umzusetzen.

Lassen Sie uns in diesem Blog mit ausführlichen Lernprogrammen das maschinelle Lernen und seine Einschränkungen untersuchen.

Was ist maschinelles Lernen?

Maschinelles Lernen ist eine Teilmenge der künstlichen Intelligenz, mit der Computer lernen können, ohne explizit programmiert zu werden. Beim maschinellen Lernen müssen wir nicht wie bei jeder anderen Programmieranwendung alle Schritte oder Bedingungen explizit definieren. Im Gegenteil, die Maschine wird auf einem Trainingsdatensatz trainiert, der groß genug ist, um ein Modell zu erstellen, das der Maschine hilft, Entscheidungen basierend auf ihrem Lernen zu treffen.

Beispielsweise: Wir wollen die Art einer Blume anhand ihrer Blütenblatt- und Kelchblattlänge (Blätter einer Blume) durch maschinelles Lernen bestimmen. Wie machen wir das dann?

Wir werden den Blumendatensatz, der verschiedene Merkmale verschiedener Blumen zusammen mit ihrer jeweiligen Art enthält, in unsere Maschine einspeisen, wie Sie im obigen Bild sehen können. Mit diesem Eingabedatensatz erstellt und trainiert die Maschine ein Modell, mit dem Blumen in verschiedene Kategorien eingeteilt werden können.
Sobald unser Modell trainiert wurde, geben wir eine Reihe von Merkmalen als Eingabe an das Modell weiter.
Schließlich gibt unser Modell die im neuen Eingabedatensatz vorhandenen Blumenarten aus. Dieser Prozess des Trainings einer Maschine, um ein Modell zu erstellen und es für die Entscheidungsfindung zu verwenden, wird aufgerufen Maschinelles Lernen . Dieser Prozess weist jedoch einige Einschränkungen auf.

Einschränkungen des maschinellen Lernens

Maschinelles Lernen ist nicht in der Lage, hochdimensionale Daten zu verarbeiten, bei denen die Eingabe und Ausgabe ziemlich groß ist. Die Handhabung und Verarbeitung solcher Daten wird sehr komplex und ressourcenintensiv. Dies wird als bezeichnet Fluch der Dimensionalität . Um dies einfacher zu verstehen, betrachten wir das folgende Bild:

Stellen Sie sich eine Linie von 100 Metern vor und Sie haben irgendwo auf der Linie eine Münze abgeworfen. Jetzt ist es ganz bequem für Sie, die Münze zu finden, indem Sie einfach auf der Linie gehen. Diese Linie ist eine eindimensionale Einheit.
Stellen Sie sich als nächstes vor, Sie haben ein Quadrat mit einer Seitenlänge von jeweils 100 Metern, wie im obigen Bild gezeigt, und Sie haben erneut eine Münze irgendwo dazwischen abgeworfen. Nun ist es ziemlich offensichtlich, dass Sie im Vergleich zum vorherigen Szenario mehr Zeit benötigen, um die Münze innerhalb dieses Quadrats zu finden. Dieses Quadrat ist eine zweidimensionale Einheit.
Machen wir einen Schritt voraus, indem wir einen Würfel mit einer Seitenlänge von jeweils 100 Metern betrachten und irgendwo dazwischen eine Münze fallen lassen. Jetzt ist es diesmal noch schwieriger, die Münze zu finden. Dieser Würfel ist eine dreidimensionale Einheit.

Daher können Sie beobachten, dass die Komplexität mit zunehmenden Dimensionen zunimmt.In der Praxis haben die hochdimensionalen Daten, über die wir gesprochen haben, Tausende von Dimensionen, was die Handhabung und Verarbeitung sehr komplex macht. Die hochdimensionalen Daten können leicht in Anwendungsfällen wie Bildverarbeitung, NLP, Bildübersetzung usw. gefunden werden.

Maschinelles Lernen war nicht in der Lage, diese Anwendungsfälle zu lösen, und daher kam Deep Learning zur Rettung. Deep Learning ist in der Lage, mit hochdimensionalen Daten umzugehen, und konzentriert sich auch effizient auf die richtigen Funktionen. Dieser Vorgang wird als Merkmalsextraktion bezeichnet. Lassen Sie uns nun in diesem Deep Learning-Tutorial fortfahren und verstehen, wie Deep Learning funktioniert.

Was ist Pojo-basiertes Programmiermodell?

Wie funktioniert Deep Learning?

Bei dem Versuch, ein menschliches Gehirn neu zu konstruieren, untersucht Deep Learning die Grundeinheit eines Gehirns, die als Gehirnzelle oder Neuron bezeichnet wird. Inspiriert von einem Neuron wurde ein künstliches Neuron oder ein Perzeptron entwickelt. Lassen Sie uns nun die Funktionalität biologischer Neuronen verstehen und wie wir diese Funktionalität im Perzeptron oder einem künstlichen Neuron nachahmen:

  • Wenn wir uns auf die Struktur eines biologischen Neurons konzentrieren, hat es Dendriten, die zum Empfangen von Eingaben verwendet werden. Diese Eingaben werden im Zellkörper summiert und unter Verwendung des Axons an das nächste biologische Neuron weitergeleitet, wie im obigen Bild gezeigt.

  • In ähnlicher Weise empfängt ein Perzeptron mehrere Eingaben, wendet verschiedene Transformationen und Funktionen an und liefert eine Ausgabe.

  • Da wir wissen, dass unser Gehirn aus mehreren verbundenen Neuronen besteht, die als neuronales Netzwerk bezeichnet werden, können wir auch ein Netzwerk künstlicher Neuronen haben, die Perzeptrone genannt werden, um ein tiefes neuronales Netzwerk zu bilden. Lassen Sie uns in diesem Deep Learning-Lernprogramm fortfahren, um zu verstehen, wie ein Deep Neural Network aussieht.

Deep Learning Tutorial: Was ist Deep Learning?

  • Jedes tiefe neuronale Netzwerk besteht aus drei Arten von Schichten:
    • Die Eingabeebene
    • Die versteckte Ebene
    • Die Ausgabeschicht
In dem obigen Diagramm ist die erste Schicht die Eingangsschicht, die alle Eingaben empfängt, und die letzte Schicht ist die Ausgangsschicht, die die gewünschte Ausgabe liefert.
Alle Ebenen zwischen diesen Ebenen werden als versteckte Ebenen bezeichnet. Dank der derzeit verfügbaren High-End-Ressourcen kann es n versteckte Ebenen geben.
Die Anzahl der ausgeblendeten Ebenen und die Anzahl der Perzeptrone in jeder Ebene hängt vollständig vom Anwendungsfall ab, den Sie lösen möchten.

Nachdem Sie sich ein Bild von einem tiefen neuronalen Netzwerk gemacht haben, können Sie in diesem Deep Learning-Lernprogramm einen Überblick darüber erhalten, wie Deep Neural Networks ein Problem der Bilderkennung löst.

Deep Learning Use - Fall

Wir möchten die Bilderkennung mit Deep Networks durchführen:

Hier übergeben wir die hochdimensionalen Daten an die Eingabeebene. Um der Dimensionalität der Eingabedaten zu entsprechen, enthält die Eingabeebene mehrere Unterschichten von Perzeptronen, sodass sie die gesamte Eingabe verbrauchen kann.
Die von der Eingabeebene empfangene Ausgabe enthält Muster und kann nur die Bildränder anhand der Kontraststufen identifizieren.
Diese Ausgabe wird der ausgeblendeten Ebene 1 zugeführt, wo verschiedene Gesichtsmerkmale wie Augen, Nase, Ohren usw. identifiziert werden können.
Dies wird nun der verborgenen Schicht 2 zugeführt, wo sie die gesamten Flächen bilden kann. Dann wird die Ausgabe von Schicht 2 an die Ausgabeschicht gesendet.
Schließlich führt die Ausgabeschicht eine Klassifizierung basierend auf dem Ergebnis aus dem vorherigen durch und sagt den Namen voraus.

Lassen Sie mich eine Frage stellen: Was passiert, wenn eine dieser Schichten fehlt oder das neuronale Netzwerk nicht tief genug ist? Ganz einfach, wir werden die Bilder nicht genau identifizieren können. Dies ist genau der Grund, warum diese Anwendungsfälle all die Jahre vor Deep Learning keine Lösung hatten. Um dies weiter zu verfolgen, werden wir versuchen, Deep-Netzwerke auf einen MNIST-Datensatz anzuwenden.

  • Der Mnist-Datensatz besteht aus 60.000 Trainingsmustern und 10.000 Testmustern handgeschriebener Ziffernbilder. Die Aufgabe hier besteht darin, ein Modell zu trainieren, das die auf dem Bild vorhandene Ziffer genau identifizieren kann.

  • Um diesen Anwendungsfall zu lösen, wird ein Deep-Netzwerk mit mehreren versteckten Ebenen erstellt, um alle 60.000 Bilder Pixel für Pixel zu verarbeiten, und schließlich erhalten wir eine Ausgabeebene.
  • Die Ausgabeebene ist ein Array mit den Indizes 0 bis 9, wobei jeder Index der jeweiligen Ziffer entspricht. Index 0 enthält die Wahrscheinlichkeit, dass 0 die auf dem Eingabebild vorhandene Ziffer ist.
  • In ähnlicher Weise repräsentiert Index 2, der einen Wert von 0,1 hat, tatsächlich die Wahrscheinlichkeit, dass 2 die auf dem Eingabebild vorhandene Ziffer ist. Wenn wir also sehen, dass die höchste Wahrscheinlichkeit in diesem Array 0,8 beträgt, ist dies bei Index 7 des Arrays vorhanden. Daher ist die auf dem Bild vorhandene Zahl 7.

Fazit

Also Jungs, hier ging es um tiefes Lernen auf den Punkt gebracht. In diesem Deep Learning-Tutorial haben wir verschiedene Anwendungen des Deep Learning gesehen und seine Beziehung zu KI und maschinellem Lernen verstanden. Dann haben wir verstanden, wie wir Perzeptron oder ein künstliches Neuron als Grundbausteine ​​verwenden können, um ein tiefes neuronales Netzwerk zu schaffen, das komplexe Aufgaben ausführen kann, wie z. Schließlich haben wir einen der Anwendungsfälle des Deep Learning durchlaufen, bei dem wir die Bilderkennung mithilfe tiefer neuronaler Netze durchgeführt und alle Schritte hinter den Kulissen verstanden haben. Im nächsten Blog dieser Deep Learning Tutorial-Reihe erfahren Sie nun, wie Sie ein Perzeptron mit TensorFlow implementieren, einer Python-basierten Bibliothek für Deep Learning.

Nachdem Sie nun über Deep Learning Bescheid wissen, lesen Sie die von Edureka, einem vertrauenswürdigen Online-Lernunternehmen mit einem Netzwerk von mehr als 250.000 zufriedenen Lernenden auf der ganzen Welt. Der Edureka Deep Learning mit TensorFlow-Zertifizierungstraining hilft den Lernenden, Experten für das Training und die Optimierung grundlegender und faltungsbedingter neuronaler Netze zu werden, indem sie Echtzeitprojekte und -aufgaben zusammen mit Konzepten wie SoftMax-Funktion, Auto-Encoder-Neuronalen Netzen und Restricted Boltzmann Machine (RBM) verwenden.

Hast du eine Frage an uns? Bitte erwähnen Sie es in den Kommentaren und wir werden uns bei Ihnen melden.