Backpropagation tillämpar kedjeregeln lager för lager för att sprida fel från utgångar tillbaka till tidigare lager. Det gör det möjligt att optimera många parametrar med gradientnedstigning och återupplivade intresset för neurala nät efter tidigare begränsningar.
Tekniken lade grunden för modern djupinlärning, där större dataset, beräkningskraft och förbättrade arkitekturer förlänger samma kärnprincip för träning.