Hyperbolic sine

Percentage Accurate: 53.7% → 99.7%
Time: 4.8s
Alternatives: 11
Speedup: 18.7×

Specification

?
\[\begin{array}{l} \\ \frac{e^{x} - e^{-x}}{2} \end{array} \]
(FPCore (x) :precision binary64 (/ (- (exp x) (exp (- x))) 2.0))
double code(double x) {
	return (exp(x) - exp(-x)) / 2.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (exp(x) - exp(-x)) / 2.0d0
end function
public static double code(double x) {
	return (Math.exp(x) - Math.exp(-x)) / 2.0;
}
def code(x):
	return (math.exp(x) - math.exp(-x)) / 2.0
function code(x)
	return Float64(Float64(exp(x) - exp(Float64(-x))) / 2.0)
end
function tmp = code(x)
	tmp = (exp(x) - exp(-x)) / 2.0;
end
code[x_] := N[(N[(N[Exp[x], $MachinePrecision] - N[Exp[(-x)], $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}

\\
\frac{e^{x} - e^{-x}}{2}
\end{array}

Sampling outcomes in binary64 precision:

Local Percentage Accuracy vs ?

The average percentage accuracy by input value. Horizontal axis shows value of an input variable; the variable is choosen in the title. Vertical axis is accuracy; higher is better. Red represent the original program, while blue represents Herbie's suggestion. These can be toggled with buttons below the plot. The line is an average while dots represent individual samples.

Accuracy vs Speed?

Herbie found 11 alternatives:

AlternativeAccuracySpeedup
The accuracy (vertical axis) and speed (horizontal axis) of each alternatives. Up and to the right is better. The red square shows the initial program, and each blue circle shows an alternative.The line shows the best available speed-accuracy tradeoffs.

Initial Program: 53.7% accurate, 1.0× speedup?

\[\begin{array}{l} \\ \frac{e^{x} - e^{-x}}{2} \end{array} \]
(FPCore (x) :precision binary64 (/ (- (exp x) (exp (- x))) 2.0))
double code(double x) {
	return (exp(x) - exp(-x)) / 2.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (exp(x) - exp(-x)) / 2.0d0
end function
public static double code(double x) {
	return (Math.exp(x) - Math.exp(-x)) / 2.0;
}
def code(x):
	return (math.exp(x) - math.exp(-x)) / 2.0
function code(x)
	return Float64(Float64(exp(x) - exp(Float64(-x))) / 2.0)
end
function tmp = code(x)
	tmp = (exp(x) - exp(-x)) / 2.0;
end
code[x_] := N[(N[(N[Exp[x], $MachinePrecision] - N[Exp[(-x)], $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}

\\
\frac{e^{x} - e^{-x}}{2}
\end{array}

Alternative 1: 99.7% accurate, 0.3× speedup?

\[\begin{array}{l} \\ \begin{array}{l} t_0 := e^{x} - e^{-x}\\ \mathbf{if}\;t_0 \leq -\infty \lor \neg \left(t_0 \leq 10^{-6}\right):\\ \;\;\;\;\frac{t_0}{2}\\ \mathbf{else}:\\ \;\;\;\;\frac{x \cdot 2 + \left(0.3333333333333333 \cdot {x}^{3} + 0.016666666666666666 \cdot {x}^{5}\right)}{2}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (let* ((t_0 (- (exp x) (exp (- x)))))
   (if (or (<= t_0 (- INFINITY)) (not (<= t_0 1e-6)))
     (/ t_0 2.0)
     (/
      (+
       (* x 2.0)
       (+
        (* 0.3333333333333333 (pow x 3.0))
        (* 0.016666666666666666 (pow x 5.0))))
      2.0))))
double code(double x) {
	double t_0 = exp(x) - exp(-x);
	double tmp;
	if ((t_0 <= -((double) INFINITY)) || !(t_0 <= 1e-6)) {
		tmp = t_0 / 2.0;
	} else {
		tmp = ((x * 2.0) + ((0.3333333333333333 * pow(x, 3.0)) + (0.016666666666666666 * pow(x, 5.0)))) / 2.0;
	}
	return tmp;
}
public static double code(double x) {
	double t_0 = Math.exp(x) - Math.exp(-x);
	double tmp;
	if ((t_0 <= -Double.POSITIVE_INFINITY) || !(t_0 <= 1e-6)) {
		tmp = t_0 / 2.0;
	} else {
		tmp = ((x * 2.0) + ((0.3333333333333333 * Math.pow(x, 3.0)) + (0.016666666666666666 * Math.pow(x, 5.0)))) / 2.0;
	}
	return tmp;
}
def code(x):
	t_0 = math.exp(x) - math.exp(-x)
	tmp = 0
	if (t_0 <= -math.inf) or not (t_0 <= 1e-6):
		tmp = t_0 / 2.0
	else:
		tmp = ((x * 2.0) + ((0.3333333333333333 * math.pow(x, 3.0)) + (0.016666666666666666 * math.pow(x, 5.0)))) / 2.0
	return tmp
function code(x)
	t_0 = Float64(exp(x) - exp(Float64(-x)))
	tmp = 0.0
	if ((t_0 <= Float64(-Inf)) || !(t_0 <= 1e-6))
		tmp = Float64(t_0 / 2.0);
	else
		tmp = Float64(Float64(Float64(x * 2.0) + Float64(Float64(0.3333333333333333 * (x ^ 3.0)) + Float64(0.016666666666666666 * (x ^ 5.0)))) / 2.0);
	end
	return tmp
end
function tmp_2 = code(x)
	t_0 = exp(x) - exp(-x);
	tmp = 0.0;
	if ((t_0 <= -Inf) || ~((t_0 <= 1e-6)))
		tmp = t_0 / 2.0;
	else
		tmp = ((x * 2.0) + ((0.3333333333333333 * (x ^ 3.0)) + (0.016666666666666666 * (x ^ 5.0)))) / 2.0;
	end
	tmp_2 = tmp;
end
code[x_] := Block[{t$95$0 = N[(N[Exp[x], $MachinePrecision] - N[Exp[(-x)], $MachinePrecision]), $MachinePrecision]}, If[Or[LessEqual[t$95$0, (-Infinity)], N[Not[LessEqual[t$95$0, 1e-6]], $MachinePrecision]], N[(t$95$0 / 2.0), $MachinePrecision], N[(N[(N[(x * 2.0), $MachinePrecision] + N[(N[(0.3333333333333333 * N[Power[x, 3.0], $MachinePrecision]), $MachinePrecision] + N[(0.016666666666666666 * N[Power[x, 5.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]]]
\begin{array}{l}

\\
\begin{array}{l}
t_0 := e^{x} - e^{-x}\\
\mathbf{if}\;t_0 \leq -\infty \lor \neg \left(t_0 \leq 10^{-6}\right):\\
\;\;\;\;\frac{t_0}{2}\\

\mathbf{else}:\\
\;\;\;\;\frac{x \cdot 2 + \left(0.3333333333333333 \cdot {x}^{3} + 0.016666666666666666 \cdot {x}^{5}\right)}{2}\\


\end{array}
\end{array}
Derivation
  1. Split input into 2 regimes
  2. if (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x))) < -inf.0 or 9.99999999999999955e-7 < (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x)))

    1. Initial program 100.0%

      \[\frac{e^{x} - e^{-x}}{2} \]

    if -inf.0 < (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x))) < 9.99999999999999955e-7

    1. Initial program 9.8%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 100.0%

      \[\leadsto \frac{\color{blue}{2 \cdot x + \left(0.3333333333333333 \cdot {x}^{3} + 0.016666666666666666 \cdot {x}^{5}\right)}}{2} \]
  3. Recombined 2 regimes into one program.
  4. Final simplification100.0%

    \[\leadsto \begin{array}{l} \mathbf{if}\;e^{x} - e^{-x} \leq -\infty \lor \neg \left(e^{x} - e^{-x} \leq 10^{-6}\right):\\ \;\;\;\;\frac{e^{x} - e^{-x}}{2}\\ \mathbf{else}:\\ \;\;\;\;\frac{x \cdot 2 + \left(0.3333333333333333 \cdot {x}^{3} + 0.016666666666666666 \cdot {x}^{5}\right)}{2}\\ \end{array} \]

Alternative 2: 99.6% accurate, 0.3× speedup?

\[\begin{array}{l} \\ \begin{array}{l} t_0 := e^{x} - e^{-x}\\ \mathbf{if}\;t_0 \leq -\infty \lor \neg \left(t_0 \leq 10^{-6}\right):\\ \;\;\;\;\frac{t_0}{2}\\ \mathbf{else}:\\ \;\;\;\;\frac{x \cdot 2 + x \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}{2}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (let* ((t_0 (- (exp x) (exp (- x)))))
   (if (or (<= t_0 (- INFINITY)) (not (<= t_0 1e-6)))
     (/ t_0 2.0)
     (/ (+ (* x 2.0) (* x (* x (* x 0.3333333333333333)))) 2.0))))
double code(double x) {
	double t_0 = exp(x) - exp(-x);
	double tmp;
	if ((t_0 <= -((double) INFINITY)) || !(t_0 <= 1e-6)) {
		tmp = t_0 / 2.0;
	} else {
		tmp = ((x * 2.0) + (x * (x * (x * 0.3333333333333333)))) / 2.0;
	}
	return tmp;
}
public static double code(double x) {
	double t_0 = Math.exp(x) - Math.exp(-x);
	double tmp;
	if ((t_0 <= -Double.POSITIVE_INFINITY) || !(t_0 <= 1e-6)) {
		tmp = t_0 / 2.0;
	} else {
		tmp = ((x * 2.0) + (x * (x * (x * 0.3333333333333333)))) / 2.0;
	}
	return tmp;
}
def code(x):
	t_0 = math.exp(x) - math.exp(-x)
	tmp = 0
	if (t_0 <= -math.inf) or not (t_0 <= 1e-6):
		tmp = t_0 / 2.0
	else:
		tmp = ((x * 2.0) + (x * (x * (x * 0.3333333333333333)))) / 2.0
	return tmp
function code(x)
	t_0 = Float64(exp(x) - exp(Float64(-x)))
	tmp = 0.0
	if ((t_0 <= Float64(-Inf)) || !(t_0 <= 1e-6))
		tmp = Float64(t_0 / 2.0);
	else
		tmp = Float64(Float64(Float64(x * 2.0) + Float64(x * Float64(x * Float64(x * 0.3333333333333333)))) / 2.0);
	end
	return tmp
end
function tmp_2 = code(x)
	t_0 = exp(x) - exp(-x);
	tmp = 0.0;
	if ((t_0 <= -Inf) || ~((t_0 <= 1e-6)))
		tmp = t_0 / 2.0;
	else
		tmp = ((x * 2.0) + (x * (x * (x * 0.3333333333333333)))) / 2.0;
	end
	tmp_2 = tmp;
end
code[x_] := Block[{t$95$0 = N[(N[Exp[x], $MachinePrecision] - N[Exp[(-x)], $MachinePrecision]), $MachinePrecision]}, If[Or[LessEqual[t$95$0, (-Infinity)], N[Not[LessEqual[t$95$0, 1e-6]], $MachinePrecision]], N[(t$95$0 / 2.0), $MachinePrecision], N[(N[(N[(x * 2.0), $MachinePrecision] + N[(x * N[(x * N[(x * 0.3333333333333333), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]]]
\begin{array}{l}

\\
\begin{array}{l}
t_0 := e^{x} - e^{-x}\\
\mathbf{if}\;t_0 \leq -\infty \lor \neg \left(t_0 \leq 10^{-6}\right):\\
\;\;\;\;\frac{t_0}{2}\\

\mathbf{else}:\\
\;\;\;\;\frac{x \cdot 2 + x \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}{2}\\


\end{array}
\end{array}
Derivation
  1. Split input into 2 regimes
  2. if (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x))) < -inf.0 or 9.99999999999999955e-7 < (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x)))

    1. Initial program 100.0%

      \[\frac{e^{x} - e^{-x}}{2} \]

    if -inf.0 < (-.f64 (exp.f64 x) (exp.f64 (neg.f64 x))) < 9.99999999999999955e-7

    1. Initial program 9.8%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 100.0%

      \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
    3. Step-by-step derivation
      1. unpow3100.0%

        \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
      2. associate-*r*100.0%

        \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
      3. distribute-rgt-out100.0%

        \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
      4. *-commutative100.0%

        \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
      5. +-commutative100.0%

        \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
      6. associate-*l*100.0%

        \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
      7. fma-def100.0%

        \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    4. Simplified100.0%

      \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    5. Step-by-step derivation
      1. fma-udef100.0%

        \[\leadsto \frac{x \cdot \color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right) + 2\right)}}{2} \]
      2. distribute-rgt-in100.0%

        \[\leadsto \frac{\color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot x + 2 \cdot x}}{2} \]
    6. Applied egg-rr100.0%

      \[\leadsto \frac{\color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot x + 2 \cdot x}}{2} \]
  3. Recombined 2 regimes into one program.
  4. Final simplification100.0%

    \[\leadsto \begin{array}{l} \mathbf{if}\;e^{x} - e^{-x} \leq -\infty \lor \neg \left(e^{x} - e^{-x} \leq 10^{-6}\right):\\ \;\;\;\;\frac{e^{x} - e^{-x}}{2}\\ \mathbf{else}:\\ \;\;\;\;\frac{x \cdot 2 + x \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}{2}\\ \end{array} \]

Alternative 3: 92.8% accurate, 1.8× speedup?

\[\begin{array}{l} \\ \frac{x \cdot \frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + 8}{4}}{2} \end{array} \]
(FPCore (x)
 :precision binary64
 (/ (* x (/ (+ (pow (* x (* x 0.3333333333333333)) 3.0) 8.0) 4.0)) 2.0))
double code(double x) {
	return (x * ((pow((x * (x * 0.3333333333333333)), 3.0) + 8.0) / 4.0)) / 2.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (x * ((((x * (x * 0.3333333333333333d0)) ** 3.0d0) + 8.0d0) / 4.0d0)) / 2.0d0
end function
public static double code(double x) {
	return (x * ((Math.pow((x * (x * 0.3333333333333333)), 3.0) + 8.0) / 4.0)) / 2.0;
}
def code(x):
	return (x * ((math.pow((x * (x * 0.3333333333333333)), 3.0) + 8.0) / 4.0)) / 2.0
function code(x)
	return Float64(Float64(x * Float64(Float64((Float64(x * Float64(x * 0.3333333333333333)) ^ 3.0) + 8.0) / 4.0)) / 2.0)
end
function tmp = code(x)
	tmp = (x * ((((x * (x * 0.3333333333333333)) ^ 3.0) + 8.0) / 4.0)) / 2.0;
end
code[x_] := N[(N[(x * N[(N[(N[Power[N[(x * N[(x * 0.3333333333333333), $MachinePrecision]), $MachinePrecision], 3.0], $MachinePrecision] + 8.0), $MachinePrecision] / 4.0), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}

\\
\frac{x \cdot \frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + 8}{4}}{2}
\end{array}
Derivation
  1. Initial program 52.4%

    \[\frac{e^{x} - e^{-x}}{2} \]
  2. Taylor expanded in x around 0 91.1%

    \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
  3. Step-by-step derivation
    1. unpow391.1%

      \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
    2. associate-*r*91.1%

      \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
    3. distribute-rgt-out91.1%

      \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
    4. *-commutative91.1%

      \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
    5. +-commutative91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
    6. associate-*l*91.1%

      \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
    7. fma-def91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
  4. Simplified91.1%

    \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
  5. Step-by-step derivation
    1. fma-udef91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right) + 2\right)}}{2} \]
    2. flip3-+54.5%

      \[\leadsto \frac{x \cdot \color{blue}{\frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + {2}^{3}}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(2 \cdot 2 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}}{2} \]
    3. metadata-eval54.5%

      \[\leadsto \frac{x \cdot \frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + \color{blue}{8}}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(2 \cdot 2 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
    4. metadata-eval54.5%

      \[\leadsto \frac{x \cdot \frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(\color{blue}{4} - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
  6. Applied egg-rr54.5%

    \[\leadsto \frac{x \cdot \color{blue}{\frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}}{2} \]
  7. Taylor expanded in x around 0 95.2%

    \[\leadsto \frac{x \cdot \frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + 8}{\color{blue}{4}}}{2} \]
  8. Final simplification95.2%

    \[\leadsto \frac{x \cdot \frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + 8}{4}}{2} \]

Alternative 4: 89.2% accurate, 1.8× speedup?

\[\begin{array}{l} \\ \begin{array}{l} t_0 := x \cdot \left(x \cdot 0.3333333333333333\right)\\ \mathbf{if}\;x \leq -5 \cdot 10^{+82}:\\ \;\;\;\;\frac{x \cdot 2 + 0.016666666666666666 \cdot {x}^{5}}{2}\\ \mathbf{elif}\;x \leq 2 \cdot 10^{+77}:\\ \;\;\;\;\frac{x \cdot \frac{8 + x \cdot \left(t_0 \cdot \left(x \cdot \left(\left(x \cdot x\right) \cdot 0.1111111111111111\right)\right)\right)}{t_0 \cdot t_0 + \left(4 - 2 \cdot t_0\right)}}{2}\\ \mathbf{else}:\\ \;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (let* ((t_0 (* x (* x 0.3333333333333333))))
   (if (<= x -5e+82)
     (/ (+ (* x 2.0) (* 0.016666666666666666 (pow x 5.0))) 2.0)
     (if (<= x 2e+77)
       (/
        (*
         x
         (/
          (+ 8.0 (* x (* t_0 (* x (* (* x x) 0.1111111111111111)))))
          (+ (* t_0 t_0) (- 4.0 (* 2.0 t_0)))))
        2.0)
       (/ x (/ 6.0 (* x x)))))))
double code(double x) {
	double t_0 = x * (x * 0.3333333333333333);
	double tmp;
	if (x <= -5e+82) {
		tmp = ((x * 2.0) + (0.016666666666666666 * pow(x, 5.0))) / 2.0;
	} else if (x <= 2e+77) {
		tmp = (x * ((8.0 + (x * (t_0 * (x * ((x * x) * 0.1111111111111111))))) / ((t_0 * t_0) + (4.0 - (2.0 * t_0))))) / 2.0;
	} else {
		tmp = x / (6.0 / (x * x));
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: t_0
    real(8) :: tmp
    t_0 = x * (x * 0.3333333333333333d0)
    if (x <= (-5d+82)) then
        tmp = ((x * 2.0d0) + (0.016666666666666666d0 * (x ** 5.0d0))) / 2.0d0
    else if (x <= 2d+77) then
        tmp = (x * ((8.0d0 + (x * (t_0 * (x * ((x * x) * 0.1111111111111111d0))))) / ((t_0 * t_0) + (4.0d0 - (2.0d0 * t_0))))) / 2.0d0
    else
        tmp = x / (6.0d0 / (x * x))
    end if
    code = tmp
end function
public static double code(double x) {
	double t_0 = x * (x * 0.3333333333333333);
	double tmp;
	if (x <= -5e+82) {
		tmp = ((x * 2.0) + (0.016666666666666666 * Math.pow(x, 5.0))) / 2.0;
	} else if (x <= 2e+77) {
		tmp = (x * ((8.0 + (x * (t_0 * (x * ((x * x) * 0.1111111111111111))))) / ((t_0 * t_0) + (4.0 - (2.0 * t_0))))) / 2.0;
	} else {
		tmp = x / (6.0 / (x * x));
	}
	return tmp;
}
def code(x):
	t_0 = x * (x * 0.3333333333333333)
	tmp = 0
	if x <= -5e+82:
		tmp = ((x * 2.0) + (0.016666666666666666 * math.pow(x, 5.0))) / 2.0
	elif x <= 2e+77:
		tmp = (x * ((8.0 + (x * (t_0 * (x * ((x * x) * 0.1111111111111111))))) / ((t_0 * t_0) + (4.0 - (2.0 * t_0))))) / 2.0
	else:
		tmp = x / (6.0 / (x * x))
	return tmp
function code(x)
	t_0 = Float64(x * Float64(x * 0.3333333333333333))
	tmp = 0.0
	if (x <= -5e+82)
		tmp = Float64(Float64(Float64(x * 2.0) + Float64(0.016666666666666666 * (x ^ 5.0))) / 2.0);
	elseif (x <= 2e+77)
		tmp = Float64(Float64(x * Float64(Float64(8.0 + Float64(x * Float64(t_0 * Float64(x * Float64(Float64(x * x) * 0.1111111111111111))))) / Float64(Float64(t_0 * t_0) + Float64(4.0 - Float64(2.0 * t_0))))) / 2.0);
	else
		tmp = Float64(x / Float64(6.0 / Float64(x * x)));
	end
	return tmp
end
function tmp_2 = code(x)
	t_0 = x * (x * 0.3333333333333333);
	tmp = 0.0;
	if (x <= -5e+82)
		tmp = ((x * 2.0) + (0.016666666666666666 * (x ^ 5.0))) / 2.0;
	elseif (x <= 2e+77)
		tmp = (x * ((8.0 + (x * (t_0 * (x * ((x * x) * 0.1111111111111111))))) / ((t_0 * t_0) + (4.0 - (2.0 * t_0))))) / 2.0;
	else
		tmp = x / (6.0 / (x * x));
	end
	tmp_2 = tmp;
end
code[x_] := Block[{t$95$0 = N[(x * N[(x * 0.3333333333333333), $MachinePrecision]), $MachinePrecision]}, If[LessEqual[x, -5e+82], N[(N[(N[(x * 2.0), $MachinePrecision] + N[(0.016666666666666666 * N[Power[x, 5.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision], If[LessEqual[x, 2e+77], N[(N[(x * N[(N[(8.0 + N[(x * N[(t$95$0 * N[(x * N[(N[(x * x), $MachinePrecision] * 0.1111111111111111), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / N[(N[(t$95$0 * t$95$0), $MachinePrecision] + N[(4.0 - N[(2.0 * t$95$0), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision], N[(x / N[(6.0 / N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]]]
\begin{array}{l}

\\
\begin{array}{l}
t_0 := x \cdot \left(x \cdot 0.3333333333333333\right)\\
\mathbf{if}\;x \leq -5 \cdot 10^{+82}:\\
\;\;\;\;\frac{x \cdot 2 + 0.016666666666666666 \cdot {x}^{5}}{2}\\

\mathbf{elif}\;x \leq 2 \cdot 10^{+77}:\\
\;\;\;\;\frac{x \cdot \frac{8 + x \cdot \left(t_0 \cdot \left(x \cdot \left(\left(x \cdot x\right) \cdot 0.1111111111111111\right)\right)\right)}{t_0 \cdot t_0 + \left(4 - 2 \cdot t_0\right)}}{2}\\

\mathbf{else}:\\
\;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\


\end{array}
\end{array}
Derivation
  1. Split input into 3 regimes
  2. if x < -5.00000000000000015e82

    1. Initial program 100.0%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 100.0%

      \[\leadsto \frac{\color{blue}{2 \cdot x + \left(0.3333333333333333 \cdot {x}^{3} + 0.016666666666666666 \cdot {x}^{5}\right)}}{2} \]
    3. Taylor expanded in x around inf 100.0%

      \[\leadsto \frac{2 \cdot x + \color{blue}{0.016666666666666666 \cdot {x}^{5}}}{2} \]

    if -5.00000000000000015e82 < x < 1.99999999999999997e77

    1. Initial program 20.9%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 88.2%

      \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
    3. Step-by-step derivation
      1. unpow388.2%

        \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
      2. associate-*r*88.2%

        \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
      3. distribute-rgt-out88.1%

        \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
      4. *-commutative88.1%

        \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
      5. +-commutative88.1%

        \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
      6. associate-*l*88.1%

        \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
      7. fma-def88.1%

        \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    4. Simplified88.1%

      \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    5. Step-by-step derivation
      1. fma-udef88.1%

        \[\leadsto \frac{x \cdot \color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right) + 2\right)}}{2} \]
      2. flip3-+90.6%

        \[\leadsto \frac{x \cdot \color{blue}{\frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + {2}^{3}}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(2 \cdot 2 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}}{2} \]
      3. metadata-eval90.6%

        \[\leadsto \frac{x \cdot \frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + \color{blue}{8}}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(2 \cdot 2 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
      4. metadata-eval90.6%

        \[\leadsto \frac{x \cdot \frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(\color{blue}{4} - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
    6. Applied egg-rr90.6%

      \[\leadsto \frac{x \cdot \color{blue}{\frac{{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}^{3} + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}}{2} \]
    7. Step-by-step derivation
      1. unpow390.6%

        \[\leadsto \frac{x \cdot \frac{\color{blue}{\left(\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)} + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
      2. associate-*l*90.6%

        \[\leadsto \frac{x \cdot \frac{\color{blue}{\left(x \cdot \left(\left(x \cdot 0.3333333333333333\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right)\right)} \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
      3. associate-*l*90.6%

        \[\leadsto \frac{x \cdot \frac{\color{blue}{x \cdot \left(\left(\left(x \cdot 0.3333333333333333\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right)} + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
      4. associate-*l*90.6%

        \[\leadsto \frac{x \cdot \frac{x \cdot \left(\color{blue}{\left(x \cdot \left(0.3333333333333333 \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right)\right)} \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right) + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
      5. associate-*l*90.6%

        \[\leadsto \frac{x \cdot \frac{x \cdot \left(\left(x \cdot \color{blue}{\left(\left(0.3333333333333333 \cdot x\right) \cdot \left(x \cdot 0.3333333333333333\right)\right)}\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right) + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
      6. *-commutative90.6%

        \[\leadsto \frac{x \cdot \frac{x \cdot \left(\left(x \cdot \left(\color{blue}{\left(x \cdot 0.3333333333333333\right)} \cdot \left(x \cdot 0.3333333333333333\right)\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right) + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
      7. swap-sqr90.6%

        \[\leadsto \frac{x \cdot \frac{x \cdot \left(\left(x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot \left(0.3333333333333333 \cdot 0.3333333333333333\right)\right)}\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right) + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
      8. metadata-eval90.6%

        \[\leadsto \frac{x \cdot \frac{x \cdot \left(\left(x \cdot \left(\left(x \cdot x\right) \cdot \color{blue}{0.1111111111111111}\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right) + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]
    8. Applied egg-rr90.6%

      \[\leadsto \frac{x \cdot \frac{\color{blue}{x \cdot \left(\left(x \cdot \left(\left(x \cdot x\right) \cdot 0.1111111111111111\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right)} + 8}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot 2\right)}}{2} \]

    if 1.99999999999999997e77 < x

    1. Initial program 100.0%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 100.0%

      \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
    3. Step-by-step derivation
      1. unpow3100.0%

        \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
      2. associate-*r*100.0%

        \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
      3. distribute-rgt-out100.0%

        \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
      4. *-commutative100.0%

        \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
      5. +-commutative100.0%

        \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
      6. associate-*l*100.0%

        \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
      7. fma-def100.0%

        \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    4. Simplified100.0%

      \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    5. Taylor expanded in x around inf 100.0%

      \[\leadsto \frac{x \cdot \color{blue}{\left(0.3333333333333333 \cdot {x}^{2}\right)}}{2} \]
    6. Step-by-step derivation
      1. unpow2100.0%

        \[\leadsto \frac{x \cdot \left(0.3333333333333333 \cdot \color{blue}{\left(x \cdot x\right)}\right)}{2} \]
    7. Simplified100.0%

      \[\leadsto \frac{x \cdot \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
    8. Step-by-step derivation
      1. associate-/l*100.0%

        \[\leadsto \color{blue}{\frac{x}{\frac{2}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      2. div-inv100.0%

        \[\leadsto \color{blue}{x \cdot \frac{1}{\frac{2}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      3. *-commutative100.0%

        \[\leadsto x \cdot \frac{1}{\frac{2}{\color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}}} \]
      4. associate-*r*100.0%

        \[\leadsto x \cdot \frac{1}{\frac{2}{\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
    9. Applied egg-rr100.0%

      \[\leadsto \color{blue}{x \cdot \frac{1}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
    10. Step-by-step derivation
      1. associate-*r/100.0%

        \[\leadsto \color{blue}{\frac{x \cdot 1}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
      2. *-rgt-identity100.0%

        \[\leadsto \frac{\color{blue}{x}}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}} \]
      3. associate-*r*100.0%

        \[\leadsto \frac{x}{\frac{2}{\color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}}} \]
      4. *-commutative100.0%

        \[\leadsto \frac{x}{\frac{2}{\color{blue}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      5. associate-/r*100.0%

        \[\leadsto \frac{x}{\color{blue}{\frac{\frac{2}{0.3333333333333333}}{x \cdot x}}} \]
      6. metadata-eval100.0%

        \[\leadsto \frac{x}{\frac{\color{blue}{6}}{x \cdot x}} \]
    11. Simplified100.0%

      \[\leadsto \color{blue}{\frac{x}{\frac{6}{x \cdot x}}} \]
  3. Recombined 3 regimes into one program.
  4. Final simplification94.4%

    \[\leadsto \begin{array}{l} \mathbf{if}\;x \leq -5 \cdot 10^{+82}:\\ \;\;\;\;\frac{x \cdot 2 + 0.016666666666666666 \cdot {x}^{5}}{2}\\ \mathbf{elif}\;x \leq 2 \cdot 10^{+77}:\\ \;\;\;\;\frac{x \cdot \frac{8 + x \cdot \left(\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(\left(x \cdot x\right) \cdot 0.1111111111111111\right)\right)\right)}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) + \left(4 - 2 \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)\right)}}{2}\\ \mathbf{else}:\\ \;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\ \end{array} \]

Alternative 5: 85.4% accurate, 7.1× speedup?

\[\begin{array}{l} \\ \begin{array}{l} t_0 := x \cdot \left(x \cdot 0.3333333333333333\right)\\ \mathbf{if}\;x \leq -2 \cdot 10^{+159}:\\ \;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\ \mathbf{elif}\;x \leq -5 \cdot 10^{+54}:\\ \;\;\;\;\frac{x \cdot \frac{t_0 \cdot t_0 - 4}{t_0 - 2}}{2}\\ \mathbf{else}:\\ \;\;\;\;\frac{x \cdot 2 + x \cdot t_0}{2}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (let* ((t_0 (* x (* x 0.3333333333333333))))
   (if (<= x -2e+159)
     (/ x (/ 6.0 (* x x)))
     (if (<= x -5e+54)
       (/ (* x (/ (- (* t_0 t_0) 4.0) (- t_0 2.0))) 2.0)
       (/ (+ (* x 2.0) (* x t_0)) 2.0)))))
double code(double x) {
	double t_0 = x * (x * 0.3333333333333333);
	double tmp;
	if (x <= -2e+159) {
		tmp = x / (6.0 / (x * x));
	} else if (x <= -5e+54) {
		tmp = (x * (((t_0 * t_0) - 4.0) / (t_0 - 2.0))) / 2.0;
	} else {
		tmp = ((x * 2.0) + (x * t_0)) / 2.0;
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: t_0
    real(8) :: tmp
    t_0 = x * (x * 0.3333333333333333d0)
    if (x <= (-2d+159)) then
        tmp = x / (6.0d0 / (x * x))
    else if (x <= (-5d+54)) then
        tmp = (x * (((t_0 * t_0) - 4.0d0) / (t_0 - 2.0d0))) / 2.0d0
    else
        tmp = ((x * 2.0d0) + (x * t_0)) / 2.0d0
    end if
    code = tmp
end function
public static double code(double x) {
	double t_0 = x * (x * 0.3333333333333333);
	double tmp;
	if (x <= -2e+159) {
		tmp = x / (6.0 / (x * x));
	} else if (x <= -5e+54) {
		tmp = (x * (((t_0 * t_0) - 4.0) / (t_0 - 2.0))) / 2.0;
	} else {
		tmp = ((x * 2.0) + (x * t_0)) / 2.0;
	}
	return tmp;
}
def code(x):
	t_0 = x * (x * 0.3333333333333333)
	tmp = 0
	if x <= -2e+159:
		tmp = x / (6.0 / (x * x))
	elif x <= -5e+54:
		tmp = (x * (((t_0 * t_0) - 4.0) / (t_0 - 2.0))) / 2.0
	else:
		tmp = ((x * 2.0) + (x * t_0)) / 2.0
	return tmp
function code(x)
	t_0 = Float64(x * Float64(x * 0.3333333333333333))
	tmp = 0.0
	if (x <= -2e+159)
		tmp = Float64(x / Float64(6.0 / Float64(x * x)));
	elseif (x <= -5e+54)
		tmp = Float64(Float64(x * Float64(Float64(Float64(t_0 * t_0) - 4.0) / Float64(t_0 - 2.0))) / 2.0);
	else
		tmp = Float64(Float64(Float64(x * 2.0) + Float64(x * t_0)) / 2.0);
	end
	return tmp
end
function tmp_2 = code(x)
	t_0 = x * (x * 0.3333333333333333);
	tmp = 0.0;
	if (x <= -2e+159)
		tmp = x / (6.0 / (x * x));
	elseif (x <= -5e+54)
		tmp = (x * (((t_0 * t_0) - 4.0) / (t_0 - 2.0))) / 2.0;
	else
		tmp = ((x * 2.0) + (x * t_0)) / 2.0;
	end
	tmp_2 = tmp;
end
code[x_] := Block[{t$95$0 = N[(x * N[(x * 0.3333333333333333), $MachinePrecision]), $MachinePrecision]}, If[LessEqual[x, -2e+159], N[(x / N[(6.0 / N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision], If[LessEqual[x, -5e+54], N[(N[(x * N[(N[(N[(t$95$0 * t$95$0), $MachinePrecision] - 4.0), $MachinePrecision] / N[(t$95$0 - 2.0), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision], N[(N[(N[(x * 2.0), $MachinePrecision] + N[(x * t$95$0), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]]]]
\begin{array}{l}

\\
\begin{array}{l}
t_0 := x \cdot \left(x \cdot 0.3333333333333333\right)\\
\mathbf{if}\;x \leq -2 \cdot 10^{+159}:\\
\;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\

\mathbf{elif}\;x \leq -5 \cdot 10^{+54}:\\
\;\;\;\;\frac{x \cdot \frac{t_0 \cdot t_0 - 4}{t_0 - 2}}{2}\\

\mathbf{else}:\\
\;\;\;\;\frac{x \cdot 2 + x \cdot t_0}{2}\\


\end{array}
\end{array}
Derivation
  1. Split input into 3 regimes
  2. if x < -1.9999999999999999e159

    1. Initial program 100.0%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 100.0%

      \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
    3. Step-by-step derivation
      1. unpow3100.0%

        \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
      2. associate-*r*100.0%

        \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
      3. distribute-rgt-out100.0%

        \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
      4. *-commutative100.0%

        \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
      5. +-commutative100.0%

        \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
      6. associate-*l*100.0%

        \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
      7. fma-def100.0%

        \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    4. Simplified100.0%

      \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    5. Taylor expanded in x around inf 100.0%

      \[\leadsto \frac{x \cdot \color{blue}{\left(0.3333333333333333 \cdot {x}^{2}\right)}}{2} \]
    6. Step-by-step derivation
      1. unpow2100.0%

        \[\leadsto \frac{x \cdot \left(0.3333333333333333 \cdot \color{blue}{\left(x \cdot x\right)}\right)}{2} \]
    7. Simplified100.0%

      \[\leadsto \frac{x \cdot \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
    8. Step-by-step derivation
      1. associate-/l*100.0%

        \[\leadsto \color{blue}{\frac{x}{\frac{2}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      2. div-inv100.0%

        \[\leadsto \color{blue}{x \cdot \frac{1}{\frac{2}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      3. *-commutative100.0%

        \[\leadsto x \cdot \frac{1}{\frac{2}{\color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}}} \]
      4. associate-*r*100.0%

        \[\leadsto x \cdot \frac{1}{\frac{2}{\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
    9. Applied egg-rr100.0%

      \[\leadsto \color{blue}{x \cdot \frac{1}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
    10. Step-by-step derivation
      1. associate-*r/100.0%

        \[\leadsto \color{blue}{\frac{x \cdot 1}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
      2. *-rgt-identity100.0%

        \[\leadsto \frac{\color{blue}{x}}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}} \]
      3. associate-*r*100.0%

        \[\leadsto \frac{x}{\frac{2}{\color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}}} \]
      4. *-commutative100.0%

        \[\leadsto \frac{x}{\frac{2}{\color{blue}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      5. associate-/r*100.0%

        \[\leadsto \frac{x}{\color{blue}{\frac{\frac{2}{0.3333333333333333}}{x \cdot x}}} \]
      6. metadata-eval100.0%

        \[\leadsto \frac{x}{\frac{\color{blue}{6}}{x \cdot x}} \]
    11. Simplified100.0%

      \[\leadsto \color{blue}{\frac{x}{\frac{6}{x \cdot x}}} \]

    if -1.9999999999999999e159 < x < -5.00000000000000005e54

    1. Initial program 100.0%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 68.9%

      \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
    3. Step-by-step derivation
      1. unpow368.9%

        \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
      2. associate-*r*68.9%

        \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
      3. distribute-rgt-out68.9%

        \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
      4. *-commutative68.9%

        \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
      5. +-commutative68.9%

        \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
      6. associate-*l*68.9%

        \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
      7. fma-def68.9%

        \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    4. Simplified68.9%

      \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    5. Step-by-step derivation
      1. fma-udef68.9%

        \[\leadsto \frac{x \cdot \color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right) + 2\right)}}{2} \]
      2. flip-+90.9%

        \[\leadsto \frac{x \cdot \color{blue}{\frac{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) - 2 \cdot 2}{x \cdot \left(x \cdot 0.3333333333333333\right) - 2}}}{2} \]
      3. metadata-eval90.9%

        \[\leadsto \frac{x \cdot \frac{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) - \color{blue}{4}}{x \cdot \left(x \cdot 0.3333333333333333\right) - 2}}{2} \]
    6. Applied egg-rr90.9%

      \[\leadsto \frac{x \cdot \color{blue}{\frac{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) - 4}{x \cdot \left(x \cdot 0.3333333333333333\right) - 2}}}{2} \]

    if -5.00000000000000005e54 < x

    1. Initial program 38.5%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 91.7%

      \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
    3. Step-by-step derivation
      1. unpow391.7%

        \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
      2. associate-*r*91.7%

        \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
      3. distribute-rgt-out91.7%

        \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
      4. *-commutative91.7%

        \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
      5. +-commutative91.7%

        \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
      6. associate-*l*91.7%

        \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
      7. fma-def91.7%

        \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    4. Simplified91.7%

      \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    5. Step-by-step derivation
      1. fma-udef91.7%

        \[\leadsto \frac{x \cdot \color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right) + 2\right)}}{2} \]
      2. distribute-rgt-in91.7%

        \[\leadsto \frac{\color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot x + 2 \cdot x}}{2} \]
    6. Applied egg-rr91.7%

      \[\leadsto \frac{\color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot x + 2 \cdot x}}{2} \]
  3. Recombined 3 regimes into one program.
  4. Final simplification92.9%

    \[\leadsto \begin{array}{l} \mathbf{if}\;x \leq -2 \cdot 10^{+159}:\\ \;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\ \mathbf{elif}\;x \leq -5 \cdot 10^{+54}:\\ \;\;\;\;\frac{x \cdot \frac{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) - 4}{x \cdot \left(x \cdot 0.3333333333333333\right) - 2}}{2}\\ \mathbf{else}:\\ \;\;\;\;\frac{x \cdot 2 + x \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}{2}\\ \end{array} \]

Alternative 6: 83.8% accurate, 15.8× speedup?

\[\begin{array}{l} \\ \frac{x \cdot 2 + x \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}{2} \end{array} \]
(FPCore (x)
 :precision binary64
 (/ (+ (* x 2.0) (* x (* x (* x 0.3333333333333333)))) 2.0))
double code(double x) {
	return ((x * 2.0) + (x * (x * (x * 0.3333333333333333)))) / 2.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = ((x * 2.0d0) + (x * (x * (x * 0.3333333333333333d0)))) / 2.0d0
end function
public static double code(double x) {
	return ((x * 2.0) + (x * (x * (x * 0.3333333333333333)))) / 2.0;
}
def code(x):
	return ((x * 2.0) + (x * (x * (x * 0.3333333333333333)))) / 2.0
function code(x)
	return Float64(Float64(Float64(x * 2.0) + Float64(x * Float64(x * Float64(x * 0.3333333333333333)))) / 2.0)
end
function tmp = code(x)
	tmp = ((x * 2.0) + (x * (x * (x * 0.3333333333333333)))) / 2.0;
end
code[x_] := N[(N[(N[(x * 2.0), $MachinePrecision] + N[(x * N[(x * N[(x * 0.3333333333333333), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}

\\
\frac{x \cdot 2 + x \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}{2}
\end{array}
Derivation
  1. Initial program 52.4%

    \[\frac{e^{x} - e^{-x}}{2} \]
  2. Taylor expanded in x around 0 91.1%

    \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
  3. Step-by-step derivation
    1. unpow391.1%

      \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
    2. associate-*r*91.1%

      \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
    3. distribute-rgt-out91.1%

      \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
    4. *-commutative91.1%

      \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
    5. +-commutative91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
    6. associate-*l*91.1%

      \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
    7. fma-def91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
  4. Simplified91.1%

    \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
  5. Step-by-step derivation
    1. fma-udef91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right) + 2\right)}}{2} \]
    2. distribute-rgt-in91.1%

      \[\leadsto \frac{\color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot x + 2 \cdot x}}{2} \]
  6. Applied egg-rr91.1%

    \[\leadsto \frac{\color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right)\right) \cdot x + 2 \cdot x}}{2} \]
  7. Final simplification91.1%

    \[\leadsto \frac{x \cdot 2 + x \cdot \left(x \cdot \left(x \cdot 0.3333333333333333\right)\right)}{2} \]

Alternative 7: 83.5% accurate, 18.5× speedup?

\[\begin{array}{l} \\ \begin{array}{l} \mathbf{if}\;x \leq -2.5 \lor \neg \left(x \leq 2.45\right):\\ \;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\ \mathbf{else}:\\ \;\;\;\;\frac{x \cdot 2}{2}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (if (or (<= x -2.5) (not (<= x 2.45)))
   (/ x (/ 6.0 (* x x)))
   (/ (* x 2.0) 2.0)))
double code(double x) {
	double tmp;
	if ((x <= -2.5) || !(x <= 2.45)) {
		tmp = x / (6.0 / (x * x));
	} else {
		tmp = (x * 2.0) / 2.0;
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: tmp
    if ((x <= (-2.5d0)) .or. (.not. (x <= 2.45d0))) then
        tmp = x / (6.0d0 / (x * x))
    else
        tmp = (x * 2.0d0) / 2.0d0
    end if
    code = tmp
end function
public static double code(double x) {
	double tmp;
	if ((x <= -2.5) || !(x <= 2.45)) {
		tmp = x / (6.0 / (x * x));
	} else {
		tmp = (x * 2.0) / 2.0;
	}
	return tmp;
}
def code(x):
	tmp = 0
	if (x <= -2.5) or not (x <= 2.45):
		tmp = x / (6.0 / (x * x))
	else:
		tmp = (x * 2.0) / 2.0
	return tmp
function code(x)
	tmp = 0.0
	if ((x <= -2.5) || !(x <= 2.45))
		tmp = Float64(x / Float64(6.0 / Float64(x * x)));
	else
		tmp = Float64(Float64(x * 2.0) / 2.0);
	end
	return tmp
end
function tmp_2 = code(x)
	tmp = 0.0;
	if ((x <= -2.5) || ~((x <= 2.45)))
		tmp = x / (6.0 / (x * x));
	else
		tmp = (x * 2.0) / 2.0;
	end
	tmp_2 = tmp;
end
code[x_] := If[Or[LessEqual[x, -2.5], N[Not[LessEqual[x, 2.45]], $MachinePrecision]], N[(x / N[(6.0 / N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision], N[(N[(x * 2.0), $MachinePrecision] / 2.0), $MachinePrecision]]
\begin{array}{l}

\\
\begin{array}{l}
\mathbf{if}\;x \leq -2.5 \lor \neg \left(x \leq 2.45\right):\\
\;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\

\mathbf{else}:\\
\;\;\;\;\frac{x \cdot 2}{2}\\


\end{array}
\end{array}
Derivation
  1. Split input into 2 regimes
  2. if x < -2.5 or 2.4500000000000002 < x

    1. Initial program 100.0%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 81.1%

      \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
    3. Step-by-step derivation
      1. unpow381.1%

        \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
      2. associate-*r*81.1%

        \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
      3. distribute-rgt-out81.1%

        \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
      4. *-commutative81.1%

        \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
      5. +-commutative81.1%

        \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
      6. associate-*l*81.1%

        \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
      7. fma-def81.1%

        \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    4. Simplified81.1%

      \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
    5. Taylor expanded in x around inf 81.1%

      \[\leadsto \frac{x \cdot \color{blue}{\left(0.3333333333333333 \cdot {x}^{2}\right)}}{2} \]
    6. Step-by-step derivation
      1. unpow281.1%

        \[\leadsto \frac{x \cdot \left(0.3333333333333333 \cdot \color{blue}{\left(x \cdot x\right)}\right)}{2} \]
    7. Simplified81.1%

      \[\leadsto \frac{x \cdot \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
    8. Step-by-step derivation
      1. associate-/l*81.1%

        \[\leadsto \color{blue}{\frac{x}{\frac{2}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      2. div-inv81.1%

        \[\leadsto \color{blue}{x \cdot \frac{1}{\frac{2}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      3. *-commutative81.1%

        \[\leadsto x \cdot \frac{1}{\frac{2}{\color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}}} \]
      4. associate-*r*81.1%

        \[\leadsto x \cdot \frac{1}{\frac{2}{\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
    9. Applied egg-rr81.1%

      \[\leadsto \color{blue}{x \cdot \frac{1}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
    10. Step-by-step derivation
      1. associate-*r/81.1%

        \[\leadsto \color{blue}{\frac{x \cdot 1}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}}} \]
      2. *-rgt-identity81.1%

        \[\leadsto \frac{\color{blue}{x}}{\frac{2}{x \cdot \left(x \cdot 0.3333333333333333\right)}} \]
      3. associate-*r*81.1%

        \[\leadsto \frac{x}{\frac{2}{\color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}}} \]
      4. *-commutative81.1%

        \[\leadsto \frac{x}{\frac{2}{\color{blue}{0.3333333333333333 \cdot \left(x \cdot x\right)}}} \]
      5. associate-/r*81.1%

        \[\leadsto \frac{x}{\color{blue}{\frac{\frac{2}{0.3333333333333333}}{x \cdot x}}} \]
      6. metadata-eval81.1%

        \[\leadsto \frac{x}{\frac{\color{blue}{6}}{x \cdot x}} \]
    11. Simplified81.1%

      \[\leadsto \color{blue}{\frac{x}{\frac{6}{x \cdot x}}} \]

    if -2.5 < x < 2.4500000000000002

    1. Initial program 9.8%

      \[\frac{e^{x} - e^{-x}}{2} \]
    2. Taylor expanded in x around 0 99.2%

      \[\leadsto \frac{\color{blue}{2 \cdot x}}{2} \]
  3. Recombined 2 regimes into one program.
  4. Final simplification90.6%

    \[\leadsto \begin{array}{l} \mathbf{if}\;x \leq -2.5 \lor \neg \left(x \leq 2.45\right):\\ \;\;\;\;\frac{x}{\frac{6}{x \cdot x}}\\ \mathbf{else}:\\ \;\;\;\;\frac{x \cdot 2}{2}\\ \end{array} \]

Alternative 8: 83.8% accurate, 18.7× speedup?

\[\begin{array}{l} \\ \frac{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}{2} \end{array} \]
(FPCore (x)
 :precision binary64
 (/ (* x (+ 2.0 (* 0.3333333333333333 (* x x)))) 2.0))
double code(double x) {
	return (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (x * (2.0d0 + (0.3333333333333333d0 * (x * x)))) / 2.0d0
end function
public static double code(double x) {
	return (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0;
}
def code(x):
	return (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0
function code(x)
	return Float64(Float64(x * Float64(2.0 + Float64(0.3333333333333333 * Float64(x * x)))) / 2.0)
end
function tmp = code(x)
	tmp = (x * (2.0 + (0.3333333333333333 * (x * x)))) / 2.0;
end
code[x_] := N[(N[(x * N[(2.0 + N[(0.3333333333333333 * N[(x * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}

\\
\frac{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}{2}
\end{array}
Derivation
  1. Initial program 52.4%

    \[\frac{e^{x} - e^{-x}}{2} \]
  2. Taylor expanded in x around 0 91.1%

    \[\leadsto \frac{\color{blue}{2 \cdot x + 0.3333333333333333 \cdot {x}^{3}}}{2} \]
  3. Step-by-step derivation
    1. unpow391.1%

      \[\leadsto \frac{2 \cdot x + 0.3333333333333333 \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot x\right)}}{2} \]
    2. associate-*r*91.1%

      \[\leadsto \frac{2 \cdot x + \color{blue}{\left(0.3333333333333333 \cdot \left(x \cdot x\right)\right) \cdot x}}{2} \]
    3. distribute-rgt-out91.1%

      \[\leadsto \frac{\color{blue}{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}}{2} \]
    4. *-commutative91.1%

      \[\leadsto \frac{x \cdot \left(2 + \color{blue}{\left(x \cdot x\right) \cdot 0.3333333333333333}\right)}{2} \]
    5. +-commutative91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\left(\left(x \cdot x\right) \cdot 0.3333333333333333 + 2\right)}}{2} \]
    6. associate-*l*91.1%

      \[\leadsto \frac{x \cdot \left(\color{blue}{x \cdot \left(x \cdot 0.3333333333333333\right)} + 2\right)}{2} \]
    7. fma-def91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
  4. Simplified91.1%

    \[\leadsto \frac{\color{blue}{x \cdot \mathsf{fma}\left(x, x \cdot 0.3333333333333333, 2\right)}}{2} \]
  5. Step-by-step derivation
    1. fma-udef91.1%

      \[\leadsto \frac{x \cdot \color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right) + 2\right)}}{2} \]
  6. Applied egg-rr91.1%

    \[\leadsto \frac{x \cdot \color{blue}{\left(x \cdot \left(x \cdot 0.3333333333333333\right) + 2\right)}}{2} \]
  7. Taylor expanded in x around 0 91.1%

    \[\leadsto \frac{x \cdot \left(\color{blue}{0.3333333333333333 \cdot {x}^{2}} + 2\right)}{2} \]
  8. Step-by-step derivation
    1. unpow291.1%

      \[\leadsto \frac{x \cdot \left(0.3333333333333333 \cdot \color{blue}{\left(x \cdot x\right)} + 2\right)}{2} \]
  9. Simplified91.1%

    \[\leadsto \frac{x \cdot \left(\color{blue}{0.3333333333333333 \cdot \left(x \cdot x\right)} + 2\right)}{2} \]
  10. Final simplification91.1%

    \[\leadsto \frac{x \cdot \left(2 + 0.3333333333333333 \cdot \left(x \cdot x\right)\right)}{2} \]

Alternative 9: 52.7% accurate, 41.2× speedup?

\[\begin{array}{l} \\ \frac{x \cdot 2}{2} \end{array} \]
(FPCore (x) :precision binary64 (/ (* x 2.0) 2.0))
double code(double x) {
	return (x * 2.0) / 2.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (x * 2.0d0) / 2.0d0
end function
public static double code(double x) {
	return (x * 2.0) / 2.0;
}
def code(x):
	return (x * 2.0) / 2.0
function code(x)
	return Float64(Float64(x * 2.0) / 2.0)
end
function tmp = code(x)
	tmp = (x * 2.0) / 2.0;
end
code[x_] := N[(N[(x * 2.0), $MachinePrecision] / 2.0), $MachinePrecision]
\begin{array}{l}

\\
\frac{x \cdot 2}{2}
\end{array}
Derivation
  1. Initial program 52.4%

    \[\frac{e^{x} - e^{-x}}{2} \]
  2. Taylor expanded in x around 0 55.0%

    \[\leadsto \frac{\color{blue}{2 \cdot x}}{2} \]
  3. Final simplification55.0%

    \[\leadsto \frac{x \cdot 2}{2} \]

Alternative 10: 2.9% accurate, 206.0× speedup?

\[\begin{array}{l} \\ -1 \end{array} \]
(FPCore (x) :precision binary64 -1.0)
double code(double x) {
	return -1.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = -1.0d0
end function
public static double code(double x) {
	return -1.0;
}
def code(x):
	return -1.0
function code(x)
	return -1.0
end
function tmp = code(x)
	tmp = -1.0;
end
code[x_] := -1.0
\begin{array}{l}

\\
-1
\end{array}
Derivation
  1. Initial program 52.4%

    \[\frac{e^{x} - e^{-x}}{2} \]
  2. Applied egg-rr2.8%

    \[\leadsto \frac{\color{blue}{-2}}{2} \]
  3. Final simplification2.8%

    \[\leadsto -1 \]

Alternative 11: 3.5% accurate, 206.0× speedup?

\[\begin{array}{l} \\ 0 \end{array} \]
(FPCore (x) :precision binary64 0.0)
double code(double x) {
	return 0.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = 0.0d0
end function
public static double code(double x) {
	return 0.0;
}
def code(x):
	return 0.0
function code(x)
	return 0.0
end
function tmp = code(x)
	tmp = 0.0;
end
code[x_] := 0.0
\begin{array}{l}

\\
0
\end{array}
Derivation
  1. Initial program 52.4%

    \[\frac{e^{x} - e^{-x}}{2} \]
  2. Applied egg-rr3.7%

    \[\leadsto \frac{\color{blue}{0}}{2} \]
  3. Final simplification3.7%

    \[\leadsto 0 \]

Reproduce

?
herbie shell --seed 2023215 
(FPCore (x)
  :name "Hyperbolic sine"
  :precision binary64
  (/ (- (exp x) (exp (- x))) 2.0))