Le terme "activé" est principalement utilisé lorsque l'on parle de fonctions d'activation qui ne sortent une valeur (sauf 0) que lorsque l'entrée de la fonction d'activation est supérieure à un certain seuil.
Surtout lorsque vous discutez de ReLU, le terme "activé" peut être utilisé. ReLU sera "activé" lorsque sa sortie est supérieure à 0, ce qui est également lorsque son entrée est supérieure à 0.
D'autres fonctions d'activation, comme sigmoïde, retournent toujours une valeur supérieure à 0 et n'ont pas de seuil spécial. Par conséquent, le terme "activé" a moins de sens ici.
Même si nous en savons peu sur eux, les neurones du cerveau semblent également avoir quelque chose qui ressemble à une fonction d'activation avec une sorte de "seuil d'activation".