English
全部
搜索
图片
视频
短视频
地图
资讯
更多
购物
航班
旅游
笔记本
报告不当内容
请选择下列任一选项。
无关
低俗内容
成人
儿童性侵犯
时长
全部
短(小于 5 分钟)
中(5-20 分钟)
长(大于 20 分钟)
日期
全部
过去 24 小时
过去一周
过去一个月
去年
清晰度
全部
低于 360p
360p 或更高
480p 或更高
720p 或更高
1080p 或更高
源
全部
Dailymotion
Vimeo
Metacafe
Hulu
VEVO
Myspace
MTV
CBS
Fox
CNN
MSN
价格
全部
免费
付费
清除筛选条件
安全搜索:
中等
严格
中等(默认)
关闭
筛选器
builtin.com
ReLU Activation Function Explained | Built In
The rectified linear unit (ReLU) is an activation function that introduces the property of nonlinearity to a deep learning model and solves the vanishing gradients issue. Here’s why it’s so popular.
2024年2月26日
ReLU Function Explained
15:16
Master 20 Powerful Activation Functions — From ReLU to ELU & Beyond
MSN
Deep Learning with Yacine
6 个月之前
12:05
Activation functions in neural networks: Types and examples
MSN
Learn With Jay
1 个月前
2:13
What is ReLU in deep learning?
YouTube
Alfred Zhong
已浏览 1 次
1 个月前
热门视频
15:16
Master 20 Powerful Activation Functions — From ReLU to ELU & Beyond
MSN
Deep Learning with Yacine
6 个月之前
1:33
Types of Activation function in Neural Network -Part 2 | ReLU #ai #education #shorts @krishnaik06
YouTube
Perceptron
已浏览 132 次
1 个月前
1:17
Activation Functions (Why ReLU Wins Everything)
YouTube
2 Minute AI
已浏览 1 次
2 个月之前
ReLU Vs Sigmoid
Question 2: Sigmoid vs ReLU(a) Write the formula for the Sigmo... | Filo
askfilo.com
4 个月之前
PyTorch Activation Functions - ReLU, Leaky ReLU, Sigmoid, Tanh and Softmax - MLK - Machine Learning Knowledge
machinelearningknowledge.ai
2021年3月10日
【深度学习 搞笑教程】19 激活函数 sigmoid tanh ReLU LeakyReLU ELU Swish | 草履虫都能听懂 零基础入门 | 持续更新
bilibili
编程八点档
已浏览 10万 次
2023年12月7日
15:16
Master 20 Powerful Activation Functions — From ReLU to ELU &
…
6 个月之前
MSN
Deep Learning with Yacine
1:33
Types of Activation function in Neural Network -Part 2 | ReLU #ai
…
已浏览 132 次
1 个月前
YouTube
Perceptron
1:17
Activation Functions (Why ReLU Wins Everything)
已浏览 1 次
2 个月之前
YouTube
2 Minute AI
3:47
What Is The Role Of A ReLU Activation Function?
已浏览 2 次
2 个月之前
YouTube
AI and Machine Learning Explained
4:03
ReLU efficiently counters vanishing gradients but not exploding durin
…
已浏览 450 次
2024年9月3日
TikTok
stephenblumpubnub
What is activation function?
已浏览 2149 次
2023年5月28日
YouTube
Hitanshu Soni
mod08lec68 - Flux quantization in a superconducting ring
已浏览 3883 次
2022年10月11日
YouTube
NPTEL-NOC IITM
forward and backward propagation using relu function
已浏览 260 次
2024年4月20日
YouTube
Omar Mustafa
Learn ReLU using PyTorch in 5 minutes
已浏览 195 次
2023年9月11日
YouTube
Jsil Tech
15:35
Quantization in deep learning | Deep Learning Tutorial 49 (Tensorflow,
…
已浏览 7.1万 次
2021年8月14日
YouTube
codebasics
Activation Functions in a Neural Network | Sigmoid,Tanh,ReLU,Lea
…
已浏览 6406 次
2021年2月5日
YouTube
NerdML
15:04
Analysis of Quantization Error
已浏览 4.6万 次
2013年1月1日
YouTube
Barry Van Veen
LLaMa GPTQ 4-Bit Quantization. Billions of Parameters Made Small
…
已浏览 2.8万 次
2023年5月14日
YouTube
AemonAlgiz
Neural Networks From Scratch - Lec 9 - ReLU Activation Function
已浏览 2041 次
2022年1月31日
YouTube
ML For Nerds
1:21
一分钟带你认识常见激活函数(tanh、ReLU)
已浏览 1.4万 次
2021年12月21日
bilibili
蛋卷蛋卷呀
32:35
36、CNN卷积神经网络之ReLU激励层
已浏览 241 次
2019年6月21日
YouTube
东方耀
3:20
6.2ReLU函数详解
已浏览 431 次
2023年10月4日
bilibili
白话先生NIT
24:25
深度学习论文解读:ReLU函数
已浏览 6518 次
2020年9月7日
bilibili
覃秉丰讲AI
7:33
大模型激活函数:从ReLU到GLU的进化之路
已浏览 911 次
2 个月之前
bilibili
酌沧
0:11
【变化的n】神经网络梯度可视化 之 relu激活函数
已浏览 1153 次
2021年11月26日
bilibili
txsn
2:49
ReLU Activation Function
已浏览 178 次
2019年10月4日
bilibili
knnstack
7:56
【油管强推】statquest 神经网络系列课程 激活函数 ReLU.
已浏览 167 次
2022年2月11日
bilibili
元気弹づ
10:05
Activation Functions - EXPLAINED!
已浏览 15.2万 次
2020年3月19日
YouTube
CodeEmporium
13:05
LU factorization
已浏览 1.9万 次
2019年2月23日
YouTube
Dr Peyam
12:18
Tutorial 10- Rectified Linear Unit(relu) and Leaky Relu
已浏览 357 次
2019年9月30日
bilibili
从零开始的人工智能
8:28
1.2.5-ReLu函数简介
已浏览 2284 次
2001年2月5日
bilibili
数分小为老师
23:19
Quantization of the energy
已浏览 2.9万 次
2017年7月31日
YouTube
MIT OpenCourseWare
9:29
5. Quantization - Digital Audio Fundamentals
已浏览 9.7万 次
2020年9月9日
YouTube
Akash Murthy
10:04
LECT-29: Quantization Process & Quantization noise
已浏览 2.7万 次
2018年7月12日
YouTube
EPOV CHANNEL
观看更多视频
更多类似内容
反馈