Aiheeseen liittyviä julkaisuja 'deep-learning'


Hermoverkko: Keinotekoisen hermoverkon ydin
Koneoppiminen, syväoppiminen Hermoverkko: Keinotekoisen hermoverkon ydin Mikä keinotekoinen hermoverkko itse asiassa on Ihmisen aivot koostuvat miljardeista toisiinsa yhteydessä olevista neuroneista ja jokainen neuroni välittää signaalia toiselle yhteyden kautta. Tämä saa ihmiset suorittamaan tietyn toiminnon. Jos esimerkiksi haluat saavuttaa taskuusi ja napata puhelimesi, tulee signaali, joka lähetetään aivoihisi ja kulkee näiden miljardien neuronien kautta. Sitten tästä..

Hienovarainen esimerkki backpropagationista— Osa 2: Perusteet
Johdanto Näiden artikkelisarjan "ensimmäisessä osassa" esitimme takaisin leviämisen teorian perusperiaatteet ja teimme yksinkertaisen toteutuksen, joka sisältää yhteen-, vähennys- ja topologisen lajittelun. Tässä artikkelissa tutkimme lisää kerto-, jako-, eksponentio- ja joitain suosittuja aktivointitoimintoja. Koska saimme teoreettiset asiat pois tieltä edellisessä artikkelissa, jonka suosittelen lukemaan ensin "täältä", sukeltamme suoraan toteutukseen. Toteutus Tässä..

Virhe lähestymistapamme: Mitä teet väärin toteuttaessasi Recurrent Neural Network-LSTM:ää!
Aloin syventyä koneoppimisen alaan muutama kuukausi sitten ja muutaman projektin jälkeen ajattelin itsekseni: "Tämä ei ole todella vaikeaa". Se oli siihen asti, kunnes tapasin syväoppimisen. Täysin uusi opintoala, syväoppiminen, vaatii valtavan määrän matemaattista ja analyyttistä tietoa. Neuraaliverkon luominen vastaa periaatteessa ihmisaivojen tekemistä! Kun valmistauduin tutustumaan Neural Netsiin, tajusin, että se on niin ylivoimaista. On niin monia monimutkaisia..

Hessin jakotukkien käyttäminen koneoppimiseen, osa1
L2-kohomologiaryhmien katoavat lauseet Hessenin monistoja varten (arXiv) Kirjailija: Shinya Akagawa Tiivistelmä : : Näytämme Kodaira-Nakano-tyyppisten L2-kohomologiaryhmien katoavia lauseita täydellisillä Hessenin monistimella. Saadaan lisää katoavia lauseita L2-kohomologiaryhmistä L2Hp,q(Ω) säännölliselle kuperalle kartiolle Ω Cheng-Yau-metriikalla p›q:lle. 2. Optimaalinen kuljetuslähestymistapa Monge-Ampère-yhtälöille kompakteissa Hessen-jakoputkissa (arXiv) Kirjailija:..

Työskentely Rayleigh-osamäärän kanssa koneoppimisen osassa 9
Riemannilainen optimointi Grassmann-jakosarjan tensorituloille: Sovellukset yleistetyille Rayleigh-osamäärälle (arXiv) Kirjoittaja: O. Curtef", "G. Ohjaaja", "U. Helmke Tiivistelmä: Esittelemme Grassmannian tensoritulolle yleistetyn Rayleigh-osamäärän, joka mahdollistaa yhtenäisen lähestymistavan hyvin tunnettuihin optimointitehtäviin numeerisen lineaarisen algebran eri alueilta, kuten tensorien parhaat matalaarvoiset approksimaatiot (tietojen pakkaus), geometriset mittaukset..

Kuvien luokittelumallin palveleminen Tensorflow-palvelun avulla
Opi käyttämään Tensorflow Servingiä luomaan verkkopalvelu, joka palvelee Tensorflow-malliasi Tämä on blogisarjan toinen osa, joka kattaa Tensorflow-mallikoulutuksen, Tensorflow Servingin ja sen suorituskyvyn. Edellisessä viestissä otettiin oliolähtöinen lähestymistapa kuvien luokittelumallin kouluttamiseen ja vietiin se SavedModel-muodossa. Suosittelen käymään sen läpi ennen tätä viestiä, koska aiomme käyttää samaa mallia. Löydät blogisarjan täydelliset hakukoodit täältä:..

Tarkkuus vs muistaminen. Mitä he oikeastaan ​​kertovat sinulle?
Ymmärrä Precision and Recall -idea Jos kysyisit joltakin datatieteilijältä tai koneoppimisinsinööriltä helpoimmasta ja hämmentävämmästä aiheesta, jonka he oppivat, yksi ensimmäisistä asioista, joka tulisi hänen mieleensä, olisi Tarkkuus vs. muistaminen. Yhtäältä tämä aihe on todella hämmentävä, ja itse vietin paljon aikaa yrittääkseni ymmärtää eron ja mikä tärkeintä, mitä nämä kaksi termiä kertovat. Toisaalta aihe on hyvin yksinkertainen eikä vaadi matematiikan, ohjelmoinnin..