?

Average Error: 58.2 → 1.8
Time: 13.2s
Precision: binary64
Cost: 20352

?

\[\frac{e^{x} - e^{-x}}{e^{x} + e^{-x}} \]
\[\frac{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}{2 + \left({x}^{2} + 0.08333333333333333 \cdot {x}^{4}\right)} \]
(FPCore (x)
 :precision binary64
 (/ (- (exp x) (exp (- x))) (+ (exp x) (exp (- x)))))
(FPCore (x)
 :precision binary64
 (/
  (+ (* 2.0 x) (* 0.3333333333333333 (pow x 3.0)))
  (+ 2.0 (+ (pow x 2.0) (* 0.08333333333333333 (pow x 4.0))))))
double code(double x) {
	return (exp(x) - exp(-x)) / (exp(x) + exp(-x));
}
double code(double x) {
	return ((2.0 * x) + (0.3333333333333333 * pow(x, 3.0))) / (2.0 + (pow(x, 2.0) + (0.08333333333333333 * pow(x, 4.0))));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (exp(x) - exp(-x)) / (exp(x) + exp(-x))
end function
real(8) function code(x)
    real(8), intent (in) :: x
    code = ((2.0d0 * x) + (0.3333333333333333d0 * (x ** 3.0d0))) / (2.0d0 + ((x ** 2.0d0) + (0.08333333333333333d0 * (x ** 4.0d0))))
end function
public static double code(double x) {
	return (Math.exp(x) - Math.exp(-x)) / (Math.exp(x) + Math.exp(-x));
}
public static double code(double x) {
	return ((2.0 * x) + (0.3333333333333333 * Math.pow(x, 3.0))) / (2.0 + (Math.pow(x, 2.0) + (0.08333333333333333 * Math.pow(x, 4.0))));
}
def code(x):
	return (math.exp(x) - math.exp(-x)) / (math.exp(x) + math.exp(-x))
def code(x):
	return ((2.0 * x) + (0.3333333333333333 * math.pow(x, 3.0))) / (2.0 + (math.pow(x, 2.0) + (0.08333333333333333 * math.pow(x, 4.0))))
function code(x)
	return Float64(Float64(exp(x) - exp(Float64(-x))) / Float64(exp(x) + exp(Float64(-x))))
end
function code(x)
	return Float64(Float64(Float64(2.0 * x) + Float64(0.3333333333333333 * (x ^ 3.0))) / Float64(2.0 + Float64((x ^ 2.0) + Float64(0.08333333333333333 * (x ^ 4.0)))))
end
function tmp = code(x)
	tmp = (exp(x) - exp(-x)) / (exp(x) + exp(-x));
end
function tmp = code(x)
	tmp = ((2.0 * x) + (0.3333333333333333 * (x ^ 3.0))) / (2.0 + ((x ^ 2.0) + (0.08333333333333333 * (x ^ 4.0))));
end
code[x_] := N[(N[(N[Exp[x], $MachinePrecision] - N[Exp[(-x)], $MachinePrecision]), $MachinePrecision] / N[(N[Exp[x], $MachinePrecision] + N[Exp[(-x)], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
code[x_] := N[(N[(N[(2.0 * x), $MachinePrecision] + N[(0.3333333333333333 * N[Power[x, 3.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / N[(2.0 + N[(N[Power[x, 2.0], $MachinePrecision] + N[(0.08333333333333333 * N[Power[x, 4.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\frac{e^{x} - e^{-x}}{e^{x} + e^{-x}}
\frac{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}{2 + \left({x}^{2} + 0.08333333333333333 \cdot {x}^{4}\right)}

Error?

Try it out?

Your Program's Arguments

Results

Enter valid numbers for all inputs

Derivation?

  1. Initial program 58.2

    \[\frac{e^{x} - e^{-x}}{e^{x} + e^{-x}} \]
  2. Taylor expanded in x around 0 2.0

    \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{e^{x} + e^{-x}} \]
  3. Taylor expanded in x around 0 1.8

    \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}{\color{blue}{2 + \left({x}^{2} + 0.08333333333333333 \cdot {x}^{4}\right)}} \]
  4. Final simplification1.8

    \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}{2 + \left({x}^{2} + 0.08333333333333333 \cdot {x}^{4}\right)} \]

Alternatives

Alternative 1
Error1.8
Cost13632
\[\frac{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}{2 + {x}^{2}} \]
Alternative 2
Error1.8
Cost13504
\[x + \left({x}^{5} \cdot 0.13333333333333333 + {x}^{3} \cdot -0.3333333333333333\right) \]
Alternative 3
Error2.0
Cost576
\[\frac{1}{\frac{1}{x} + x \cdot 0.3333333333333333} \]
Alternative 4
Error2.2
Cost64
\[x \]

Error

Reproduce?

herbie shell --seed 2023064 
(FPCore (x)
  :name "Hyperbolic tangent"
  :precision binary64
  (/ (- (exp x) (exp (- x))) (+ (exp x) (exp (- x)))))