
(FPCore (x) :precision binary64 (/ (- (exp x) (exp (- x))) 2.0))
double code(double x) {
return (exp(x) - exp(-x)) / 2.0;
}
real(8) function code(x)
real(8), intent (in) :: x
code = (exp(x) - exp(-x)) / 2.0d0
end function
public static double code(double x) {
return (Math.exp(x) - Math.exp(-x)) / 2.0;
}
def code(x): return (math.exp(x) - math.exp(-x)) / 2.0
function code(x) return Float64(Float64(exp(x) - exp(Float64(-x))) / 2.0) end
function tmp = code(x) tmp = (exp(x) - exp(-x)) / 2.0; end
code[x_] := N[(N[(N[Exp[x], $MachinePrecision] - N[Exp[(-x)], $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}
\\
\frac{e^{x} - e^{-x}}{2}
\end{array}
Sampling outcomes in binary64 precision:
Herbie found 9 alternatives:
| Alternative | Accuracy | Speedup |
|---|
(FPCore (x) :precision binary64 (/ (- (exp x) (exp (- x))) 2.0))
double code(double x) {
return (exp(x) - exp(-x)) / 2.0;
}
real(8) function code(x)
real(8), intent (in) :: x
code = (exp(x) - exp(-x)) / 2.0d0
end function
public static double code(double x) {
return (Math.exp(x) - Math.exp(-x)) / 2.0;
}
def code(x): return (math.exp(x) - math.exp(-x)) / 2.0
function code(x) return Float64(Float64(exp(x) - exp(Float64(-x))) / 2.0) end
function tmp = code(x) tmp = (exp(x) - exp(-x)) / 2.0; end
code[x_] := N[(N[(N[Exp[x], $MachinePrecision] - N[Exp[(-x)], $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}
\\
\frac{e^{x} - e^{-x}}{2}
\end{array}
(FPCore (x)
:precision binary64
(let* ((t_0 (- (exp x) (exp (- x)))))
(if (or (<= t_0 (- INFINITY)) (not (<= t_0 2e-8)))
(/ t_0 2.0)
(/
(+
(* x 2.0)
(+
(* 0.3333333333333333 (* x (* x x)))
(* 0.016666666666666666 (pow x 5.0))))
2.0))))
double code(double x) {
double t_0 = exp(x) - exp(-x);
double tmp;
if ((t_0 <= -((double) INFINITY)) || !(t_0 <= 2e-8)) {
tmp = t_0 / 2.0;
} else {
tmp = ((x * 2.0) + ((0.3333333333333333 * (x * (x * x))) + (0.016666666666666666 * pow(x, 5.0)))) / 2.0;
}
return tmp;
}
public static double code(double x) {
double t_0 = Math.exp(x) - Math.exp(-x);
double tmp;
if ((t_0 <= -Double.POSITIVE_INFINITY) || !(t_0 <= 2e-8)) {
tmp = t_0 / 2.0;
} else {
tmp = ((x * 2.0) + ((0.3333333333333333 * (x * (x * x))) + (0.016666666666666666 * Math.pow(x, 5.0)))) / 2.0;
}
return tmp;
}
def code(x): t_0 = math.exp(x) - math.exp(-x) tmp = 0 if (t_0 <= -math.inf) or not (t_0 <= 2e-8): tmp = t_0 / 2.0 else: tmp = ((x * 2.0) + ((0.3333333333333333 * (x * (x * x))) + (0.016666666666666666 * math.pow(x, 5.0)))) / 2.0 return tmp
function code(x) t_0 = Float64(exp(x) - exp(Float64(-x))) tmp = 0.0 if ((t_0 <= Float64(-Inf)) || !(t_0 <= 2e-8)) tmp = Float64(t_0 / 2.0); else tmp = Float64(Float64(Float64(x * 2.0) + Float64(Float64(0.3333333333333333 * Float64(x * Float64(x * x))) + Float64(0.016666666666666666 * (x ^ 5.0)))) / 2.0); end return tmp end
function tmp_2 = code(x) t_0 = exp(x) - exp(-x); tmp = 0.0; if ((t_0 <= -Inf) || ~((t_0 <= 2e-8))) tmp = t_0 / 2.0; else tmp = ((x * 2.0) + ((0.3333333333333333 * (x * (x * x))) + (0.016666666666666666 * (x ^ 5.0)))) / 2.0; end tmp_2 = tmp; end
code[x_] := Block[{t$95$0 = N[(N[Exp[x], $MachinePrecision] - N[Exp[(-x)], $MachinePrecision]), $MachinePrecision]}, If[Or[LessEqual[t$95$0, (-Infinity)], N[Not[LessEqual[t$95$0, 2e-8]], $MachinePrecision]], N[(t$95$0 / 2.0), $MachinePrecision], N[(N[(N[(x * 2.0), $MachinePrecision] + N[(N[(0.3333333333333333 * N[(x * N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] + N[(0.016666666666666666 * N[Power[x, 5.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]]]
\begin{array}{l}
\\
\begin{array}{l}
t_0 := e^{x} - e^{-x}\\
\mathbf{if}\;t_0 \leq -\infty \lor \neg \left(t_0 \leq 2 \cdot 10^{-8}\right):\\
\;\;\;\;\frac{t_0}{2}\\
\mathbf{else}:\\
\;\;\;\;\frac{x \cdot 2 + \left(0.3333333333333333 \cdot \left(x \cdot \left(x \cdot x\right)\right) + 0.016666666666666666 \cdot {x}^{5}\right)}{2}\\
\end{array}
\end{array}
if (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x))) < -inf.0 or 2e-8 < (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x))) Initial program 100.0%
if -inf.0 < (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x))) < 2e-8Initial program 8.1%
Taylor expanded in x around 0 100.0%
unpow3100.0%
Applied egg-rr100.0%
Final simplification100.0%
(FPCore (x)
:precision binary64
(/
(+
(* x 2.0)
(+
(* 0.3333333333333333 (* x (* x x)))
(* 0.016666666666666666 (pow x 5.0))))
2.0))
double code(double x) {
return ((x * 2.0) + ((0.3333333333333333 * (x * (x * x))) + (0.016666666666666666 * pow(x, 5.0)))) / 2.0;
}
real(8) function code(x)
real(8), intent (in) :: x
code = ((x * 2.0d0) + ((0.3333333333333333d0 * (x * (x * x))) + (0.016666666666666666d0 * (x ** 5.0d0)))) / 2.0d0
end function
public static double code(double x) {
return ((x * 2.0) + ((0.3333333333333333 * (x * (x * x))) + (0.016666666666666666 * Math.pow(x, 5.0)))) / 2.0;
}
def code(x): return ((x * 2.0) + ((0.3333333333333333 * (x * (x * x))) + (0.016666666666666666 * math.pow(x, 5.0)))) / 2.0
function code(x) return Float64(Float64(Float64(x * 2.0) + Float64(Float64(0.3333333333333333 * Float64(x * Float64(x * x))) + Float64(0.016666666666666666 * (x ^ 5.0)))) / 2.0) end
function tmp = code(x) tmp = ((x * 2.0) + ((0.3333333333333333 * (x * (x * x))) + (0.016666666666666666 * (x ^ 5.0)))) / 2.0; end
code[x_] := N[(N[(N[(x * 2.0), $MachinePrecision] + N[(N[(0.3333333333333333 * N[(x * N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] + N[(0.016666666666666666 * N[Power[x, 5.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}
\\
\frac{x \cdot 2 + \left(0.3333333333333333 \cdot \left(x \cdot \left(x \cdot x\right)\right) + 0.016666666666666666 \cdot {x}^{5}\right)}{2}
\end{array}
Initial program 57.7%
Taylor expanded in x around 0 91.1%
unpow391.1%
Applied egg-rr91.1%
Final simplification91.1%
(FPCore (x) :precision binary64 (/ (+ (* x 2.0) (* 0.016666666666666666 (pow x 5.0))) 2.0))
double code(double x) {
return ((x * 2.0) + (0.016666666666666666 * pow(x, 5.0))) / 2.0;
}
real(8) function code(x)
real(8), intent (in) :: x
code = ((x * 2.0d0) + (0.016666666666666666d0 * (x ** 5.0d0))) / 2.0d0
end function
public static double code(double x) {
return ((x * 2.0) + (0.016666666666666666 * Math.pow(x, 5.0))) / 2.0;
}
def code(x): return ((x * 2.0) + (0.016666666666666666 * math.pow(x, 5.0))) / 2.0
function code(x) return Float64(Float64(Float64(x * 2.0) + Float64(0.016666666666666666 * (x ^ 5.0))) / 2.0) end
function tmp = code(x) tmp = ((x * 2.0) + (0.016666666666666666 * (x ^ 5.0))) / 2.0; end
code[x_] := N[(N[(N[(x * 2.0), $MachinePrecision] + N[(0.016666666666666666 * N[Power[x, 5.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}
\\
\frac{x \cdot 2 + 0.016666666666666666 \cdot {x}^{5}}{2}
\end{array}
Initial program 57.7%
Taylor expanded in x around 0 91.1%
Taylor expanded in x around inf 90.9%
Final simplification90.9%
(FPCore (x) :precision binary64 (if (<= x 5.0) (/ (* x (+ 2.0 (* 0.3333333333333333 (* x x)))) 2.0) (/ (* 0.016666666666666666 (pow x 5.0)) 2.0)))
double code(double x) {
double tmp;
if (x <= 5.0) {
tmp = (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0;
} else {
tmp = (0.016666666666666666 * pow(x, 5.0)) / 2.0;
}
return tmp;
}
real(8) function code(x)
real(8), intent (in) :: x
real(8) :: tmp
if (x <= 5.0d0) then
tmp = (x * (2.0d0 + (0.3333333333333333d0 * (x * x)))) / 2.0d0
else
tmp = (0.016666666666666666d0 * (x ** 5.0d0)) / 2.0d0
end if
code = tmp
end function
public static double code(double x) {
double tmp;
if (x <= 5.0) {
tmp = (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0;
} else {
tmp = (0.016666666666666666 * Math.pow(x, 5.0)) / 2.0;
}
return tmp;
}
def code(x): tmp = 0 if x <= 5.0: tmp = (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0 else: tmp = (0.016666666666666666 * math.pow(x, 5.0)) / 2.0 return tmp
function code(x) tmp = 0.0 if (x <= 5.0) tmp = Float64(Float64(x * Float64(2.0 + Float64(0.3333333333333333 * Float64(x * x)))) / 2.0); else tmp = Float64(Float64(0.016666666666666666 * (x ^ 5.0)) / 2.0); end return tmp end
function tmp_2 = code(x) tmp = 0.0; if (x <= 5.0) tmp = (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0; else tmp = (0.016666666666666666 * (x ^ 5.0)) / 2.0; end tmp_2 = tmp; end
code[x_] := If[LessEqual[x, 5.0], N[(N[(x * N[(2.0 + N[(0.3333333333333333 * N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision], N[(N[(0.016666666666666666 * N[Power[x, 5.0], $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;x \leq 5:\\
\;\;\;\;\frac{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}{2}\\
\mathbf{else}:\\
\;\;\;\;\frac{0.016666666666666666 \cdot {x}^{5}}{2}\\
\end{array}
\end{array}
if x < 5Initial program 39.1%
Taylor expanded in x around 0 90.8%
unpow390.8%
associate-*r*90.8%
distribute-rgt-out90.8%
*-commutative90.8%
+-commutative90.8%
associate-*l*90.8%
fma-def90.8%
Simplified90.8%
fma-udef90.8%
associate-*r*90.8%
*-commutative90.8%
Applied egg-rr90.8%
if 5 < x Initial program 100.0%
Taylor expanded in x around 0 86.6%
Taylor expanded in x around inf 86.6%
Taylor expanded in x around inf 86.6%
Final simplification89.6%
(FPCore (x) :precision binary64 (if (or (<= x -2.4) (not (<= x 2.5))) (* x (/ 1.0 (/ 6.0 (* x x)))) (/ (* x 2.0) 2.0)))
double code(double x) {
double tmp;
if ((x <= -2.4) || !(x <= 2.5)) {
tmp = x * (1.0 / (6.0 / (x * x)));
} else {
tmp = (x * 2.0) / 2.0;
}
return tmp;
}
real(8) function code(x)
real(8), intent (in) :: x
real(8) :: tmp
if ((x <= (-2.4d0)) .or. (.not. (x <= 2.5d0))) then
tmp = x * (1.0d0 / (6.0d0 / (x * x)))
else
tmp = (x * 2.0d0) / 2.0d0
end if
code = tmp
end function
public static double code(double x) {
double tmp;
if ((x <= -2.4) || !(x <= 2.5)) {
tmp = x * (1.0 / (6.0 / (x * x)));
} else {
tmp = (x * 2.0) / 2.0;
}
return tmp;
}
def code(x): tmp = 0 if (x <= -2.4) or not (x <= 2.5): tmp = x * (1.0 / (6.0 / (x * x))) else: tmp = (x * 2.0) / 2.0 return tmp
function code(x) tmp = 0.0 if ((x <= -2.4) || !(x <= 2.5)) tmp = Float64(x * Float64(1.0 / Float64(6.0 / Float64(x * x)))); else tmp = Float64(Float64(x * 2.0) / 2.0); end return tmp end
function tmp_2 = code(x) tmp = 0.0; if ((x <= -2.4) || ~((x <= 2.5))) tmp = x * (1.0 / (6.0 / (x * x))); else tmp = (x * 2.0) / 2.0; end tmp_2 = tmp; end
code[x_] := If[Or[LessEqual[x, -2.4], N[Not[LessEqual[x, 2.5]], $MachinePrecision]], N[(x * N[(1.0 / N[(6.0 / N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision], N[(N[(x * 2.0), $MachinePrecision] / 2.0), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;x \leq -2.4 \lor \neg \left(x \leq 2.5\right):\\
\;\;\;\;x \cdot \frac{1}{\frac{6}{x \cdot x}}\\
\mathbf{else}:\\
\;\;\;\;\frac{x \cdot 2}{2}\\
\end{array}
\end{array}
if x < -2.39999999999999991 or 2.5 < x Initial program 100.0%
Taylor expanded in x around 0 71.7%
unpow371.7%
associate-*r*71.7%
distribute-rgt-out71.7%
*-commutative71.7%
+-commutative71.7%
associate-*l*71.7%
fma-def71.7%
Simplified71.7%
Taylor expanded in x around inf 71.7%
unpow271.7%
Simplified71.7%
associate-/l*71.7%
div-inv71.7%
associate-/r*71.7%
metadata-eval71.7%
Applied egg-rr71.7%
if -2.39999999999999991 < x < 2.5Initial program 8.1%
Taylor expanded in x around 0 99.5%
Final simplification84.6%
(FPCore (x) :precision binary64 (/ (* x (+ 2.0 (* 0.3333333333333333 (* x x)))) 2.0))
double code(double x) {
return (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0;
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x * (2.0d0 + (0.3333333333333333d0 * (x * x)))) / 2.0d0
end function
public static double code(double x) {
return (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0;
}
def code(x): return (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0
function code(x) return Float64(Float64(x * Float64(2.0 + Float64(0.3333333333333333 * Float64(x * x)))) / 2.0) end
function tmp = code(x) tmp = (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0; end
code[x_] := N[(N[(x * N[(2.0 + N[(0.3333333333333333 * N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}
\\
\frac{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}{2}
\end{array}
Initial program 57.7%
Taylor expanded in x around 0 84.7%
unpow384.7%
associate-*r*84.7%
distribute-rgt-out84.7%
*-commutative84.7%
+-commutative84.7%
associate-*l*84.7%
fma-def84.7%
Simplified84.7%
fma-udef84.7%
associate-*r*84.7%
*-commutative84.7%
Applied egg-rr84.7%
Final simplification84.7%
(FPCore (x) :precision binary64 (/ (* x 2.0) 2.0))
double code(double x) {
return (x * 2.0) / 2.0;
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x * 2.0d0) / 2.0d0
end function
public static double code(double x) {
return (x * 2.0) / 2.0;
}
def code(x): return (x * 2.0) / 2.0
function code(x) return Float64(Float64(x * 2.0) / 2.0) end
function tmp = code(x) tmp = (x * 2.0) / 2.0; end
code[x_] := N[(N[(x * 2.0), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}
\\
\frac{x \cdot 2}{2}
\end{array}
Initial program 57.7%
Taylor expanded in x around 0 48.8%
Final simplification48.8%
(FPCore (x) :precision binary64 -1.0)
double code(double x) {
return -1.0;
}
real(8) function code(x)
real(8), intent (in) :: x
code = -1.0d0
end function
public static double code(double x) {
return -1.0;
}
def code(x): return -1.0
function code(x) return -1.0 end
function tmp = code(x) tmp = -1.0; end
code[x_] := -1.0
\begin{array}{l}
\\
-1
\end{array}
Initial program 57.7%
Applied egg-rr2.7%
Final simplification2.7%
(FPCore (x) :precision binary64 0.0)
double code(double x) {
return 0.0;
}
real(8) function code(x)
real(8), intent (in) :: x
code = 0.0d0
end function
public static double code(double x) {
return 0.0;
}
def code(x): return 0.0
function code(x) return 0.0 end
function tmp = code(x) tmp = 0.0; end
code[x_] := 0.0
\begin{array}{l}
\\
0
\end{array}
Initial program 57.7%
Applied egg-rr3.2%
Final simplification3.2%
herbie shell --seed 2023199
(FPCore (x)
:name "Hyperbolic sine"
:precision binary64
(/ (- (exp x) (exp (- x))) 2.0))