Neuronal representations within artificial neural networks are commonly understood as logits, representing the log-odds score of presence (versus absence) of features within the stimulus. Under this interpretation, we can derive the probability $P(x_0 \land x_1)$ that a pair of independent features are both present in the stimulus from their logits. By converting the resulting probability back into a logit, we obtain a logit-space equivalent of the AND operation. However, since this function involves taking multiple exponents and logarithms, it is not well suited to be directly used within neural networks. We thus constructed an efficient approximation named $\text{AND}_\text{AIL}$ (the AND operator Approximate for Independent Logits) utilizing only comparison and addition operations, which can be deployed as an activation function in neural networks. Like MaxOut, $\text{AND}_\text{AIL}$ is a generalization of ReLU to two-dimensions. Additionally, we constructed efficient approximations of the logit-space equivalents to the OR and XNOR operators. We deployed these new activation functions, both in isolation and in conjunction, and demonstrated their effectiveness on a variety of tasks including image classification, transfer learning, abstract reasoning, and compositional zero-shot learning.
翻译:人工神经网络中的神经神经表示方式通常被理解为对数, 代表了在刺激中存在特性的对数分( 对数缺失) 。 根据这种解释, 我们只能从对数中推断出在刺激中存在一对独立特性的概率$P( x_0\ land x_ 1) 。 通过将由此产生的概率转换成对数, 我们获得一个与该操作和操作相当的对数空间。 但是, 由于这个函数涉及多个出数和对数, 它不适宜直接用于神经网络中。 因此, 我们建造了一个名为$\ text{AND{ text{AIL}( 和操作者接近独立登录) 的高效近似值。 我们仅利用比较和添加操作, 即可将其作为神经网络的启动功能。 像 MaxOutt, $\ text{AND{ text{ text{AIL} 一样, 我们将 ReLU 的对二维值进行概括化。 此外, 我们构建了对等值的对等值对等的对等值日空间的对等值在神经网络网络网络操作员和XNOR 操作员的高效近比对等的近。 我们运用了这些新的转换功能,, 并展示了这些对等数, 并展示了这些对等的模型化了这些对等的模型化和图像的转换,,, 的模型化、 的升级化、, 的模型化、 的模型化、 、 学习、 、 演化、 、 演化和演化、 演算法化了这些新的转换和演化了这些新的转换、 、 、 、 、 、 、 演化了 和 的转换的转换为 、 演化、 演化、 演化、 演化、 演化、 、 、 演化、 演化、 、 演化、 演化、 演化、 演化、 演化、 演化、 演化、 演化、 等。