Resultados da procura
Saltar á navegación
Saltar á procura
- e aproximando <math>u(t,x)</math> por unha rede neuronal profunda. Esta rede pode ser obtida utilizando diferenciación automática. Entón, os e aproximando <math>u(t,x)</math> por unha rede neuronal profunda. Esta rede pode ser obtida utilizando diferenciación automática. Os parámet ...7 kB (1.100 palabras) - 9 de xullo de 2024 ás 13:30
- ...ícase LoRA nas diferentes capas de atención dos [[Transformador (modelo de aprendizaxe automática)|transformadores]], conxelando os pesos de cada capa, e substitu ...eñouse para incluírse nas capas de atención dos [[Transformador (modelo de aprendizaxe automática)|transformadores]].<ref name=":1">{{Cita web|título=LoRA|url=htt ...9 kB (1.526 palabras) - 16 de febreiro de 2025 ás 22:52
- ...última_versión=2023|galego=Transformador|nome=Transformer|xénero=modelo de aprendizaxe automática}} ...ador''' (ou '''''transformer''''', do inglés) é un modelo de [[aprendizaxe profunda]], que adopta un mecanismo de autoponderación, ponderando de forma diferenc ...21 kB (3.478 palabras) - 20 de outubro de 2024 ás 21:46
- ...2=Yoshua|apelidos3=Courville|nome3=Aaron|edición=1ª|títulotrad=Aprendizaxe profunda|lingua=en|capítulo=9}}</ref> * VGG: unha rede profunda con filtros pequenos (<math>3 \times 3</math>). O número de filtros dóbrase ...19 kB (3.082 palabras) - 24 de febreiro de 2025 ás 18:19
- ...eural Radiance Field'') é un método baseado na [[Deep learning|aprendizaxe profunda]] ou ''deep-learning'' para formar unha [[Reconstrución 3D|representación t ...un campo de radiación parametrizado por unha [[Deep learning|rede neuronal profunda]] perceptrón multicapa (MLP). A rede predí unha densidade de volume e unha ...18 kB (2.777 palabras) - 5 de outubro de 2024 ás 15:14
- ...ha secuencia de vectores. Ten a arquitectura do [[Transformador (modelo de aprendizaxe automática)|codificador do transformador]]. Destaca pola súa dramática mell BERT é unha arquitectura de [[Transformador (modelo de aprendizaxe automática)|transformador]] de "só-codificador". A alto nivel, BERT consta ...34 kB (5.217 palabras) - 24 de febreiro de 2025 ás 10:29
- ...e de Hebbian, como modelo de memoria asociativa, engadindo a compoñente de aprendizaxe.<ref>{{Cita publicación periódica|url=https://ieeexplore.ieee.org/document/ ...a de compresor de historia neural resolveu unha tarefa de "aprendizaxe moi profunda" que requiría máis de 1000 capas nunha RNN despregada no tempo.<ref>{{Cita ...71 kB (10.903 palabras) - 13 de decembro de 2024 ás 06:34
- ...struír a través de testemuños escritos de contemporáneos seus. Tanto a súa aprendizaxe, coma a súa viaxe a Italia, o seu traballo en Tours e incluso a súa obra —q ...toda a atención na faciana, coa que conseguiu transmitir maxistralmente a profunda humanidade do personaxe. Otto Pacht demostrou que este retrato do bufón, at ...48 kB (7.948 palabras) - 19 de setembro de 2024 ás 22:22
- ...de [[Kepler-90]], este descubrimento foi feito usando un novo método de [[aprendizaxe automático]] desenrolado por Google e fai que o sistema planetario Kepler-9 ...os seus colab. modelaron os efectos da prevista [[radiación ultravioleta]] profunda e extrema sobre os planetas ''b'' e ''c '' emitida por TRAPPIST-1. Os seus ...68 kB (9.995 palabras) - 16 de agosto de 2024 ás 14:33