Ivanhoe of Sweden Gelu Hat

Ivanhoe of Sweden Gelu Hat
Materiale: 100 % ull. Type: Ribbestrikket lue. Kant: Oppbrettet. Detaljer: Liten logo i jacron. Farge: Graphite marl, Grey marl, Navy. Størrelse: One Size.
Les mer
Fra 429,- Se alle priser 
farge:
størrelse
Materiale: 100 % ull. Type: Ribbestrikket lue. Kant: Oppbrettet. Detaljer: Liten logo i jacron. Farge: Graphite marl, Grey marl, Navy. Størrelse: One Size.
Les mer
farge:
størrelse
Priser
Priser
Filter
outnorth
Produkt pris ekskl. skatter
343,-
Frakt, fra
ekskludert
Totalt ekskl. skatt
343,-
Estimert skatt
86,-
Ordre Totalt
429,-
outnorth
Produkt pris ekskl. skatter
343,-
Frakt, fra
ekskludert
Totalt ekskl. skatt
343,-
Estimert skatt
86,-
Ordre Totalt
429,-
outnorth
outnorth Ivanhoe of Sweden Gelu Hat
429,-
6 – 14 dager
outnorth
429,-
6 – 14 dager
Produktbeskrivelse

Gelu Hat fra Ivanhoe er en stilren og funksjonell ribbestrikket lue i fargen Grey Marl. Luen har en oppbrettet kant og er dekorert med et lite merke i jacron med Ivanhoe-logoen. Laget av ekstra fin merinoull gir Gelu Hat en myk og behagelig følelse, samtidig som den isolerer godt og holder deg varm under kjølige utendørsaktiviteter.

  • Laget av 100 % ekstra fin merinoull for optimal varme og komfort
  • Ribbestrikket design for en klassisk og tidløs stil
  • Oppbrettet kant gir ekstra varme rundt ørene
  • Liten logo i jacron som detalj
  • Mykt og pustende materiale egnet for både sport og fritid
Spesifikasjon
Matematisk definisjon
GELU(x) = x · Φ(x), der Φ(x) er den kumulative fordelingsfunksjonen (CDF) for standard normalfordeling, definert som Φ(x) = ½ [1 + erf(x/√2)]
Tilnærmet formel
GELU(x) ≈ 0,5 · x · [1 + tanh(√(2/π) · (x + 0,044715 · x³))]
Egenskaper
GELU er glatt (differensierbar), ikke-monoton og har kontinuerlige deriverte
Sammenligning med ReLU
I motsetning til ReLU, som kutter negative verdier brått, gir GELU en jevn overgang og unngår problemet med "døde nevroner"
Sammenligning med Leaky ReLU
Leaky ReLU gir en liten negativ helning for negative innganger, men GELU gir en mer dynamisk og ikke-lineær aktivering som ofte gir bedre ytelse
Sammenligning med SiLU
Både GELU og SiLU er glatte og ikke-monotone. Valget mellom dem avhenger ofte av empiriske tester, men noen studier antyder at SiLU kan være noe mer effektiv i visse datamodeller
Bruksområder
Standard aktiveringsfunksjon i feed-forward-nettverk i Transformer-arkitekturer som BERT, GPT og Vision Transformer (ViT)
Tilgjengelighet i rammeverk
Implementert som torch.nn.GELU i PyTorch og tf.keras.activations.gelu i TensorFlow
Prishistorikk
Velg først alle parametere for produktet.
Brukeranmeldelser
Logg Inn
Glemt passord?

ELLER