Huisdier thuis
De exacte oorsprong van de term "diep leren" is onduidelijk, maar deze wordt over het algemeen toegeschreven aan meerdere bronnen. Hier zijn een paar mogelijke oorsprong:
1. Geoffrey Hinton's 2006 Paper :In 2006 publiceerde computerwetenschapper Geoffrey Hinton een baanbrekende paper getiteld "Deep Learning:A Tutorial on Deep Neural Networks" in Nature Magazine. Dit artikel wordt beschouwd als een mijlpaal op het gebied van kunstmatige neurale netwerken en heeft geholpen de term 'diep leren' populair te maken. Hinton en zijn collega's aan de Universiteit van Toronto worden algemeen beschouwd als pioniers in de ontwikkeling van diepe leertechnieken.
2. Yoshua Bengio's gebruik van de term :Yoshua Bengio, een andere prominente onderzoeker in het veld, speelde ook een belangrijke rol in de popularisering van de term "Deep Learning" in de vroege jaren 2000. Bengio en zijn collega's van Université de Montréal voerden baanbrekend onderzoek uit naar deep -leeralgoritmen, en hij gebruikte vaak de term "diep leren" in zijn onderzoekspublicaties.
3. Invloed van cognitieve psychologie :Sommigen geloven dat de inspiratie voor de term "diep leren" kan zijn voortgekomen uit het idee van "diepe structuur" in de cognitieve psychologie. Diepe structuur is een term die wordt gebruikt in de taalkunde en de cognitieve psychologie om de onderliggende weergave of syntaxis van een taal te beschrijven die verder gaat dan de kenmerken van woorden en zinnen op oppervlakniveau. Dit concept kan het begrip van de diepe leermodellen hebben beïnvloed als het vastleggen van onderliggende patronen en complexe relaties in gegevens.
4. Vergelijking met traditionele machine learning :De term "diep leren" was waarschijnlijk bedacht om het te onderscheiden van traditionele methoden voor machine learning. Hoewel traditionele algoritmen voor machine learning vaak afhankelijk zijn van ondiepe neurale netwerken of ondiepe weergaven van gegevens, omvat diep leren het gebruik van diepe neurale netwerken met meerdere verborgen lagen. Deze diepe architecturen zorgen voor meer complexe en hiërarchische functie-extractie, waardoor modellen op hoger niveau van gegevens kunnen leren.
5. Historische context :In de begindagen van onderzoek naar neurale netwerk waren ondiepe neurale netwerken de norm, en ze werden geconfronteerd met beperkingen in hun representatieve mogelijkheden en het vermogen om complexe problemen aan te pakken. De opkomst van krachtige computerbronnen, zoals grafische verwerkingseenheden (GPU's), maakte het eind 2000 mogelijk om diepere neurale netwerken effectief te trainen. Deze historische context heeft bijgedragen aan de noodzaak van een term die de vorderingen en een verhoogde complexiteit van deze nieuwe benaderingen heeft vastgelegd, vandaar de term "diep leren" kreeg grip.
Het is waarschijnlijk een combinatie van deze factoren, samen met de convergentie van onderzoeksinspanningen en doorbraken, die hebben geleid tot de wijdverbreide acceptatie van de term "diep leren" om het subveld binnen machine learning te beschrijven gericht op diepe neurale netwerken.