Kahan's exp quotient

Percentage Accurate: 52.9% → 100.0%
Time: 5.1s
Alternatives: 8
Speedup: 11.6×

Specification

?
\[\begin{array}{l} \\ \frac{e^{x} - 1}{x} \end{array} \]
(FPCore (x) :precision binary64 (/ (- (exp x) 1.0) x))
double code(double x) {
	return (exp(x) - 1.0) / x;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (exp(x) - 1.0d0) / x
end function
public static double code(double x) {
	return (Math.exp(x) - 1.0) / x;
}
def code(x):
	return (math.exp(x) - 1.0) / x
function code(x)
	return Float64(Float64(exp(x) - 1.0) / x)
end
function tmp = code(x)
	tmp = (exp(x) - 1.0) / x;
end
code[x_] := N[(N[(N[Exp[x], $MachinePrecision] - 1.0), $MachinePrecision] / x), $MachinePrecision]
\begin{array}{l}

\\
\frac{e^{x} - 1}{x}
\end{array}

Sampling outcomes in binary64 precision:

Local Percentage Accuracy vs ?

The average percentage accuracy by input value. Horizontal axis shows value of an input variable; the variable is choosen in the title. Vertical axis is accuracy; higher is better. Red represent the original program, while blue represents Herbie's suggestion. These can be toggled with buttons below the plot. The line is an average while dots represent individual samples.

Accuracy vs Speed?

Herbie found 8 alternatives:

AlternativeAccuracySpeedup
The accuracy (vertical axis) and speed (horizontal axis) of each alternatives. Up and to the right is better. The red square shows the initial program, and each blue circle shows an alternative.The line shows the best available speed-accuracy tradeoffs.

Initial Program: 52.9% accurate, 1.0× speedup?

\[\begin{array}{l} \\ \frac{e^{x} - 1}{x} \end{array} \]
(FPCore (x) :precision binary64 (/ (- (exp x) 1.0) x))
double code(double x) {
	return (exp(x) - 1.0) / x;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (exp(x) - 1.0d0) / x
end function
public static double code(double x) {
	return (Math.exp(x) - 1.0) / x;
}
def code(x):
	return (math.exp(x) - 1.0) / x
function code(x)
	return Float64(Float64(exp(x) - 1.0) / x)
end
function tmp = code(x)
	tmp = (exp(x) - 1.0) / x;
end
code[x_] := N[(N[(N[Exp[x], $MachinePrecision] - 1.0), $MachinePrecision] / x), $MachinePrecision]
\begin{array}{l}

\\
\frac{e^{x} - 1}{x}
\end{array}

Alternative 1: 100.0% accurate, 1.0× speedup?

\[\begin{array}{l} \\ \frac{\mathsf{expm1}\left(x\right)}{x} \end{array} \]
(FPCore (x) :precision binary64 (/ (expm1 x) x))
double code(double x) {
	return expm1(x) / x;
}
public static double code(double x) {
	return Math.expm1(x) / x;
}
def code(x):
	return math.expm1(x) / x
function code(x)
	return Float64(expm1(x) / x)
end
code[x_] := N[(N[(Exp[x] - 1), $MachinePrecision] / x), $MachinePrecision]
\begin{array}{l}

\\
\frac{\mathsf{expm1}\left(x\right)}{x}
\end{array}
Derivation
  1. Initial program 55.4%

    \[\frac{e^{x} - 1}{x} \]
  2. Step-by-step derivation
    1. expm1-def100.0%

      \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
  3. Simplified100.0%

    \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
  4. Final simplification100.0%

    \[\leadsto \frac{\mathsf{expm1}\left(x\right)}{x} \]

Alternative 2: 69.7% accurate, 4.6× speedup?

\[\begin{array}{l} \\ \begin{array}{l} \mathbf{if}\;x \leq 2.9:\\ \;\;\;\;x \cdot 0.5 + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 1\right)\\ \mathbf{else}:\\ \;\;\;\;x \cdot 0.5 + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 + x \cdot -0.041666666666666664}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (if (<= x 2.9)
   (+ (* x 0.5) (+ (* (* x x) 0.16666666666666666) 1.0))
   (+
    (* x 0.5)
    (/
     (* (* x x) (- 0.027777777777777776 (* (* x x) 0.001736111111111111)))
     (+ 0.16666666666666666 (* x -0.041666666666666664))))))
double code(double x) {
	double tmp;
	if (x <= 2.9) {
		tmp = (x * 0.5) + (((x * x) * 0.16666666666666666) + 1.0);
	} else {
		tmp = (x * 0.5) + (((x * x) * (0.027777777777777776 - ((x * x) * 0.001736111111111111))) / (0.16666666666666666 + (x * -0.041666666666666664)));
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: tmp
    if (x <= 2.9d0) then
        tmp = (x * 0.5d0) + (((x * x) * 0.16666666666666666d0) + 1.0d0)
    else
        tmp = (x * 0.5d0) + (((x * x) * (0.027777777777777776d0 - ((x * x) * 0.001736111111111111d0))) / (0.16666666666666666d0 + (x * (-0.041666666666666664d0))))
    end if
    code = tmp
end function
public static double code(double x) {
	double tmp;
	if (x <= 2.9) {
		tmp = (x * 0.5) + (((x * x) * 0.16666666666666666) + 1.0);
	} else {
		tmp = (x * 0.5) + (((x * x) * (0.027777777777777776 - ((x * x) * 0.001736111111111111))) / (0.16666666666666666 + (x * -0.041666666666666664)));
	}
	return tmp;
}
def code(x):
	tmp = 0
	if x <= 2.9:
		tmp = (x * 0.5) + (((x * x) * 0.16666666666666666) + 1.0)
	else:
		tmp = (x * 0.5) + (((x * x) * (0.027777777777777776 - ((x * x) * 0.001736111111111111))) / (0.16666666666666666 + (x * -0.041666666666666664)))
	return tmp
function code(x)
	tmp = 0.0
	if (x <= 2.9)
		tmp = Float64(Float64(x * 0.5) + Float64(Float64(Float64(x * x) * 0.16666666666666666) + 1.0));
	else
		tmp = Float64(Float64(x * 0.5) + Float64(Float64(Float64(x * x) * Float64(0.027777777777777776 - Float64(Float64(x * x) * 0.001736111111111111))) / Float64(0.16666666666666666 + Float64(x * -0.041666666666666664))));
	end
	return tmp
end
function tmp_2 = code(x)
	tmp = 0.0;
	if (x <= 2.9)
		tmp = (x * 0.5) + (((x * x) * 0.16666666666666666) + 1.0);
	else
		tmp = (x * 0.5) + (((x * x) * (0.027777777777777776 - ((x * x) * 0.001736111111111111))) / (0.16666666666666666 + (x * -0.041666666666666664)));
	end
	tmp_2 = tmp;
end
code[x_] := If[LessEqual[x, 2.9], N[(N[(x * 0.5), $MachinePrecision] + N[(N[(N[(x * x), $MachinePrecision] * 0.16666666666666666), $MachinePrecision] + 1.0), $MachinePrecision]), $MachinePrecision], N[(N[(x * 0.5), $MachinePrecision] + N[(N[(N[(x * x), $MachinePrecision] * N[(0.027777777777777776 - N[(N[(x * x), $MachinePrecision] * 0.001736111111111111), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / N[(0.16666666666666666 + N[(x * -0.041666666666666664), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}

\\
\begin{array}{l}
\mathbf{if}\;x \leq 2.9:\\
\;\;\;\;x \cdot 0.5 + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 1\right)\\

\mathbf{else}:\\
\;\;\;\;x \cdot 0.5 + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 + x \cdot -0.041666666666666664}\\


\end{array}
\end{array}
Derivation
  1. Split input into 2 regimes
  2. if x < 2.89999999999999991

    1. Initial program 40.2%

      \[\frac{e^{x} - 1}{x} \]
    2. Step-by-step derivation
      1. expm1-def100.0%

        \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
    3. Simplified100.0%

      \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
    4. Taylor expanded in x around 0 63.7%

      \[\leadsto \color{blue}{0.5 \cdot x + \left(0.16666666666666666 \cdot {x}^{2} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
    5. Step-by-step derivation
      1. add-log-exp63.8%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      2. *-un-lft-identity63.8%

        \[\leadsto 0.5 \cdot x + \left(\log \color{blue}{\left(1 \cdot e^{0.16666666666666666 \cdot {x}^{2}}\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      3. log-prod63.8%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(\log 1 + \log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      4. metadata-eval63.8%

        \[\leadsto 0.5 \cdot x + \left(\left(\color{blue}{0} + \log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      5. add-log-exp63.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0 + \color{blue}{0.16666666666666666 \cdot {x}^{2}}\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      6. unpow263.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0 + 0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)}\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    6. Applied egg-rr63.7%

      \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(0 + 0.16666666666666666 \cdot \left(x \cdot x\right)\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    7. Step-by-step derivation
      1. +-lft-identity63.7%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    8. Simplified63.7%

      \[\leadsto 0.5 \cdot x + \left(\color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    9. Step-by-step derivation
      1. *-un-lft-identity63.7%

        \[\leadsto 0.5 \cdot x + \color{blue}{1 \cdot \left(0.16666666666666666 \cdot \left(x \cdot x\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
      2. *-commutative63.7%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \cdot 1} \]
      3. +-commutative63.7%

        \[\leadsto 0.5 \cdot x + \left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(0.041666666666666664 \cdot {x}^{3} + 1\right)}\right) \cdot 1 \]
      4. associate-+r+63.7%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + 0.041666666666666664 \cdot {x}^{3}\right) + 1\right)} \cdot 1 \]
      5. cube-mult63.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + 0.041666666666666664 \cdot \color{blue}{\left(x \cdot \left(x \cdot x\right)\right)}\right) + 1\right) \cdot 1 \]
      6. associate-*r*63.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(0.041666666666666664 \cdot x\right) \cdot \left(x \cdot x\right)}\right) + 1\right) \cdot 1 \]
      7. *-commutative63.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(x \cdot 0.041666666666666664\right)} \cdot \left(x \cdot x\right)\right) + 1\right) \cdot 1 \]
      8. distribute-rgt-in64.0%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)} + 1\right) \cdot 1 \]
      9. +-commutative64.0%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{\left(x \cdot 0.041666666666666664 + 0.16666666666666666\right)} + 1\right) \cdot 1 \]
      10. fma-def64.0%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{\mathsf{fma}\left(x, 0.041666666666666664, 0.16666666666666666\right)} + 1\right) \cdot 1 \]
    10. Applied egg-rr64.0%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(\left(x \cdot x\right) \cdot \mathsf{fma}\left(x, 0.041666666666666664, 0.16666666666666666\right) + 1\right) \cdot 1} \]
    11. Taylor expanded in x around 0 64.5%

      \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{0.16666666666666666} + 1\right) \cdot 1 \]

    if 2.89999999999999991 < x

    1. Initial program 100.0%

      \[\frac{e^{x} - 1}{x} \]
    2. Step-by-step derivation
      1. expm1-def100.0%

        \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
    3. Simplified100.0%

      \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
    4. Taylor expanded in x around 0 68.2%

      \[\leadsto \color{blue}{0.5 \cdot x + \left(0.16666666666666666 \cdot {x}^{2} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
    5. Taylor expanded in x around inf 68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(0.16666666666666666 \cdot {x}^{2} + 0.041666666666666664 \cdot {x}^{3}\right)} \]
    6. Step-by-step derivation
      1. unpow268.2%

        \[\leadsto 0.5 \cdot x + \left(0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)} + 0.041666666666666664 \cdot {x}^{3}\right) \]
      2. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(x \cdot x\right) \cdot 0.16666666666666666} + 0.041666666666666664 \cdot {x}^{3}\right) \]
      3. cube-mult68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 0.041666666666666664 \cdot \color{blue}{\left(x \cdot \left(x \cdot x\right)\right)}\right) \]
      4. associate-*r*68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + \color{blue}{\left(0.041666666666666664 \cdot x\right) \cdot \left(x \cdot x\right)}\right) \]
      5. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + \color{blue}{\left(x \cdot x\right) \cdot \left(0.041666666666666664 \cdot x\right)}\right) \]
      6. distribute-lft-out68.2%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + 0.041666666666666664 \cdot x\right)} \]
      7. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(x \cdot x\right) \cdot \left(0.16666666666666666 + \color{blue}{x \cdot 0.041666666666666664}\right) \]
    7. Simplified68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)} \]
    8. Step-by-step derivation
      1. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(0.16666666666666666 + x \cdot 0.041666666666666664\right) \cdot \left(x \cdot x\right)} \]
      2. flip-+68.2%

        \[\leadsto 0.5 \cdot x + \color{blue}{\frac{0.16666666666666666 \cdot 0.16666666666666666 - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)}{0.16666666666666666 - x \cdot 0.041666666666666664}} \cdot \left(x \cdot x\right) \]
      3. associate-*l/78.0%

        \[\leadsto 0.5 \cdot x + \color{blue}{\frac{\left(0.16666666666666666 \cdot 0.16666666666666666 - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)\right) \cdot \left(x \cdot x\right)}{0.16666666666666666 - x \cdot 0.041666666666666664}} \]
      4. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(\color{blue}{0.027777777777777776} - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)\right) \cdot \left(x \cdot x\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      5. swap-sqr78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(0.027777777777777776 - \color{blue}{\left(x \cdot x\right) \cdot \left(0.041666666666666664 \cdot 0.041666666666666664\right)}\right) \cdot \left(x \cdot x\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      6. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(0.027777777777777776 - \left(x \cdot x\right) \cdot \color{blue}{0.001736111111111111}\right) \cdot \left(x \cdot x\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      7. *-commutative78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right) \cdot \left(x \cdot x\right)}{0.16666666666666666 - \color{blue}{0.041666666666666664 \cdot x}} \]
      8. cancel-sign-sub-inv78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right) \cdot \left(x \cdot x\right)}{\color{blue}{0.16666666666666666 + \left(-0.041666666666666664\right) \cdot x}} \]
      9. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right) \cdot \left(x \cdot x\right)}{0.16666666666666666 + \color{blue}{-0.041666666666666664} \cdot x} \]
    9. Applied egg-rr78.0%

      \[\leadsto 0.5 \cdot x + \color{blue}{\frac{\left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right) \cdot \left(x \cdot x\right)}{0.16666666666666666 + -0.041666666666666664 \cdot x}} \]
  3. Recombined 2 regimes into one program.
  4. Final simplification67.9%

    \[\leadsto \begin{array}{l} \mathbf{if}\;x \leq 2.9:\\ \;\;\;\;x \cdot 0.5 + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 1\right)\\ \mathbf{else}:\\ \;\;\;\;x \cdot 0.5 + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 + x \cdot -0.041666666666666664}\\ \end{array} \]

Alternative 3: 67.5% accurate, 7.0× speedup?

\[\begin{array}{l} \\ x \cdot 0.5 + \left(1 + \left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)\right) \end{array} \]
(FPCore (x)
 :precision binary64
 (+
  (* x 0.5)
  (+ 1.0 (* (* x x) (+ 0.16666666666666666 (* x 0.041666666666666664))))))
double code(double x) {
	return (x * 0.5) + (1.0 + ((x * x) * (0.16666666666666666 + (x * 0.041666666666666664))));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (x * 0.5d0) + (1.0d0 + ((x * x) * (0.16666666666666666d0 + (x * 0.041666666666666664d0))))
end function
public static double code(double x) {
	return (x * 0.5) + (1.0 + ((x * x) * (0.16666666666666666 + (x * 0.041666666666666664))));
}
def code(x):
	return (x * 0.5) + (1.0 + ((x * x) * (0.16666666666666666 + (x * 0.041666666666666664))))
function code(x)
	return Float64(Float64(x * 0.5) + Float64(1.0 + Float64(Float64(x * x) * Float64(0.16666666666666666 + Float64(x * 0.041666666666666664)))))
end
function tmp = code(x)
	tmp = (x * 0.5) + (1.0 + ((x * x) * (0.16666666666666666 + (x * 0.041666666666666664))));
end
code[x_] := N[(N[(x * 0.5), $MachinePrecision] + N[(1.0 + N[(N[(x * x), $MachinePrecision] * N[(0.16666666666666666 + N[(x * 0.041666666666666664), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
x \cdot 0.5 + \left(1 + \left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)\right)
\end{array}
Derivation
  1. Initial program 55.4%

    \[\frac{e^{x} - 1}{x} \]
  2. Step-by-step derivation
    1. expm1-def100.0%

      \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
  3. Simplified100.0%

    \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
  4. Taylor expanded in x around 0 64.9%

    \[\leadsto \color{blue}{0.5 \cdot x + \left(0.16666666666666666 \cdot {x}^{2} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
  5. Step-by-step derivation
    1. add-log-exp73.0%

      \[\leadsto 0.5 \cdot x + \left(\color{blue}{\log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    2. *-un-lft-identity73.0%

      \[\leadsto 0.5 \cdot x + \left(\log \color{blue}{\left(1 \cdot e^{0.16666666666666666 \cdot {x}^{2}}\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    3. log-prod73.0%

      \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(\log 1 + \log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    4. metadata-eval73.0%

      \[\leadsto 0.5 \cdot x + \left(\left(\color{blue}{0} + \log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    5. add-log-exp64.9%

      \[\leadsto 0.5 \cdot x + \left(\left(0 + \color{blue}{0.16666666666666666 \cdot {x}^{2}}\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    6. unpow264.9%

      \[\leadsto 0.5 \cdot x + \left(\left(0 + 0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)}\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
  6. Applied egg-rr64.9%

    \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(0 + 0.16666666666666666 \cdot \left(x \cdot x\right)\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
  7. Step-by-step derivation
    1. +-lft-identity64.9%

      \[\leadsto 0.5 \cdot x + \left(\color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
  8. Simplified64.9%

    \[\leadsto 0.5 \cdot x + \left(\color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
  9. Step-by-step derivation
    1. *-un-lft-identity64.9%

      \[\leadsto 0.5 \cdot x + \color{blue}{1 \cdot \left(0.16666666666666666 \cdot \left(x \cdot x\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
    2. *-commutative64.9%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \cdot 1} \]
    3. +-commutative64.9%

      \[\leadsto 0.5 \cdot x + \left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(0.041666666666666664 \cdot {x}^{3} + 1\right)}\right) \cdot 1 \]
    4. associate-+r+64.9%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + 0.041666666666666664 \cdot {x}^{3}\right) + 1\right)} \cdot 1 \]
    5. cube-mult64.9%

      \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + 0.041666666666666664 \cdot \color{blue}{\left(x \cdot \left(x \cdot x\right)\right)}\right) + 1\right) \cdot 1 \]
    6. associate-*r*64.9%

      \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(0.041666666666666664 \cdot x\right) \cdot \left(x \cdot x\right)}\right) + 1\right) \cdot 1 \]
    7. *-commutative64.9%

      \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(x \cdot 0.041666666666666664\right)} \cdot \left(x \cdot x\right)\right) + 1\right) \cdot 1 \]
    8. distribute-rgt-in65.0%

      \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)} + 1\right) \cdot 1 \]
    9. +-commutative65.0%

      \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{\left(x \cdot 0.041666666666666664 + 0.16666666666666666\right)} + 1\right) \cdot 1 \]
    10. fma-def65.0%

      \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{\mathsf{fma}\left(x, 0.041666666666666664, 0.16666666666666666\right)} + 1\right) \cdot 1 \]
  10. Applied egg-rr65.0%

    \[\leadsto 0.5 \cdot x + \color{blue}{\left(\left(x \cdot x\right) \cdot \mathsf{fma}\left(x, 0.041666666666666664, 0.16666666666666666\right) + 1\right) \cdot 1} \]
  11. Step-by-step derivation
    1. fma-udef65.0%

      \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{\left(x \cdot 0.041666666666666664 + 0.16666666666666666\right)} + 1\right) \cdot 1 \]
  12. Applied egg-rr65.0%

    \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{\left(x \cdot 0.041666666666666664 + 0.16666666666666666\right)} + 1\right) \cdot 1 \]
  13. Final simplification65.0%

    \[\leadsto x \cdot 0.5 + \left(1 + \left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)\right) \]

Alternative 4: 67.7% accurate, 8.0× speedup?

\[\begin{array}{l} \\ \begin{array}{l} \mathbf{if}\;x \leq 1.65:\\ \;\;\;\;1\\ \mathbf{else}:\\ \;\;\;\;x \cdot 0.5 + \frac{x \cdot x}{\frac{24}{x}}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (if (<= x 1.65) 1.0 (+ (* x 0.5) (/ (* x x) (/ 24.0 x)))))
double code(double x) {
	double tmp;
	if (x <= 1.65) {
		tmp = 1.0;
	} else {
		tmp = (x * 0.5) + ((x * x) / (24.0 / x));
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: tmp
    if (x <= 1.65d0) then
        tmp = 1.0d0
    else
        tmp = (x * 0.5d0) + ((x * x) / (24.0d0 / x))
    end if
    code = tmp
end function
public static double code(double x) {
	double tmp;
	if (x <= 1.65) {
		tmp = 1.0;
	} else {
		tmp = (x * 0.5) + ((x * x) / (24.0 / x));
	}
	return tmp;
}
def code(x):
	tmp = 0
	if x <= 1.65:
		tmp = 1.0
	else:
		tmp = (x * 0.5) + ((x * x) / (24.0 / x))
	return tmp
function code(x)
	tmp = 0.0
	if (x <= 1.65)
		tmp = 1.0;
	else
		tmp = Float64(Float64(x * 0.5) + Float64(Float64(x * x) / Float64(24.0 / x)));
	end
	return tmp
end
function tmp_2 = code(x)
	tmp = 0.0;
	if (x <= 1.65)
		tmp = 1.0;
	else
		tmp = (x * 0.5) + ((x * x) / (24.0 / x));
	end
	tmp_2 = tmp;
end
code[x_] := If[LessEqual[x, 1.65], 1.0, N[(N[(x * 0.5), $MachinePrecision] + N[(N[(x * x), $MachinePrecision] / N[(24.0 / x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}

\\
\begin{array}{l}
\mathbf{if}\;x \leq 1.65:\\
\;\;\;\;1\\

\mathbf{else}:\\
\;\;\;\;x \cdot 0.5 + \frac{x \cdot x}{\frac{24}{x}}\\


\end{array}
\end{array}
Derivation
  1. Split input into 2 regimes
  2. if x < 1.6499999999999999

    1. Initial program 40.2%

      \[\frac{e^{x} - 1}{x} \]
    2. Step-by-step derivation
      1. expm1-def100.0%

        \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
    3. Simplified100.0%

      \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
    4. Taylor expanded in x around 0 64.4%

      \[\leadsto \color{blue}{1} \]

    if 1.6499999999999999 < x

    1. Initial program 100.0%

      \[\frac{e^{x} - 1}{x} \]
    2. Step-by-step derivation
      1. expm1-def100.0%

        \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
    3. Simplified100.0%

      \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
    4. Taylor expanded in x around 0 68.2%

      \[\leadsto \color{blue}{0.5 \cdot x + \left(0.16666666666666666 \cdot {x}^{2} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
    5. Taylor expanded in x around inf 68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(0.16666666666666666 \cdot {x}^{2} + 0.041666666666666664 \cdot {x}^{3}\right)} \]
    6. Step-by-step derivation
      1. unpow268.2%

        \[\leadsto 0.5 \cdot x + \left(0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)} + 0.041666666666666664 \cdot {x}^{3}\right) \]
      2. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(x \cdot x\right) \cdot 0.16666666666666666} + 0.041666666666666664 \cdot {x}^{3}\right) \]
      3. cube-mult68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 0.041666666666666664 \cdot \color{blue}{\left(x \cdot \left(x \cdot x\right)\right)}\right) \]
      4. associate-*r*68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + \color{blue}{\left(0.041666666666666664 \cdot x\right) \cdot \left(x \cdot x\right)}\right) \]
      5. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + \color{blue}{\left(x \cdot x\right) \cdot \left(0.041666666666666664 \cdot x\right)}\right) \]
      6. distribute-lft-out68.2%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + 0.041666666666666664 \cdot x\right)} \]
      7. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(x \cdot x\right) \cdot \left(0.16666666666666666 + \color{blue}{x \cdot 0.041666666666666664}\right) \]
    7. Simplified68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)} \]
    8. Step-by-step derivation
      1. flip-+68.2%

        \[\leadsto 0.5 \cdot x + \left(x \cdot x\right) \cdot \color{blue}{\frac{0.16666666666666666 \cdot 0.16666666666666666 - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)}{0.16666666666666666 - x \cdot 0.041666666666666664}} \]
      2. associate-*r/78.0%

        \[\leadsto 0.5 \cdot x + \color{blue}{\frac{\left(x \cdot x\right) \cdot \left(0.16666666666666666 \cdot 0.16666666666666666 - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)\right)}{0.16666666666666666 - x \cdot 0.041666666666666664}} \]
      3. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(\color{blue}{0.027777777777777776} - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      4. swap-sqr78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \color{blue}{\left(x \cdot x\right) \cdot \left(0.041666666666666664 \cdot 0.041666666666666664\right)}\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      5. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot \color{blue}{0.001736111111111111}\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      6. *-commutative78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 - \color{blue}{0.041666666666666664 \cdot x}} \]
      7. cancel-sign-sub-inv78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{\color{blue}{0.16666666666666666 + \left(-0.041666666666666664\right) \cdot x}} \]
      8. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 + \color{blue}{-0.041666666666666664} \cdot x} \]
    9. Applied egg-rr78.0%

      \[\leadsto 0.5 \cdot x + \color{blue}{\frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 + -0.041666666666666664 \cdot x}} \]
    10. Step-by-step derivation
      1. associate-/l*68.2%

        \[\leadsto 0.5 \cdot x + \color{blue}{\frac{x \cdot x}{\frac{0.16666666666666666 + -0.041666666666666664 \cdot x}{0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111}}} \]
      2. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \frac{x \cdot x}{\frac{0.16666666666666666 + \color{blue}{x \cdot -0.041666666666666664}}{0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111}} \]
    11. Simplified68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\frac{x \cdot x}{\frac{0.16666666666666666 + x \cdot -0.041666666666666664}{0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111}}} \]
    12. Taylor expanded in x around inf 68.2%

      \[\leadsto 0.5 \cdot x + \frac{x \cdot x}{\color{blue}{\frac{24}{x}}} \]
  3. Recombined 2 regimes into one program.
  4. Final simplification65.4%

    \[\leadsto \begin{array}{l} \mathbf{if}\;x \leq 1.65:\\ \;\;\;\;1\\ \mathbf{else}:\\ \;\;\;\;x \cdot 0.5 + \frac{x \cdot x}{\frac{24}{x}}\\ \end{array} \]

Alternative 5: 67.9% accurate, 8.0× speedup?

\[\begin{array}{l} \\ \begin{array}{l} \mathbf{if}\;x \leq 4.9:\\ \;\;\;\;x \cdot 0.5 + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 1\right)\\ \mathbf{else}:\\ \;\;\;\;x \cdot 0.5 + \frac{x \cdot x}{\frac{24}{x}}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (if (<= x 4.9)
   (+ (* x 0.5) (+ (* (* x x) 0.16666666666666666) 1.0))
   (+ (* x 0.5) (/ (* x x) (/ 24.0 x)))))
double code(double x) {
	double tmp;
	if (x <= 4.9) {
		tmp = (x * 0.5) + (((x * x) * 0.16666666666666666) + 1.0);
	} else {
		tmp = (x * 0.5) + ((x * x) / (24.0 / x));
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: tmp
    if (x <= 4.9d0) then
        tmp = (x * 0.5d0) + (((x * x) * 0.16666666666666666d0) + 1.0d0)
    else
        tmp = (x * 0.5d0) + ((x * x) / (24.0d0 / x))
    end if
    code = tmp
end function
public static double code(double x) {
	double tmp;
	if (x <= 4.9) {
		tmp = (x * 0.5) + (((x * x) * 0.16666666666666666) + 1.0);
	} else {
		tmp = (x * 0.5) + ((x * x) / (24.0 / x));
	}
	return tmp;
}
def code(x):
	tmp = 0
	if x <= 4.9:
		tmp = (x * 0.5) + (((x * x) * 0.16666666666666666) + 1.0)
	else:
		tmp = (x * 0.5) + ((x * x) / (24.0 / x))
	return tmp
function code(x)
	tmp = 0.0
	if (x <= 4.9)
		tmp = Float64(Float64(x * 0.5) + Float64(Float64(Float64(x * x) * 0.16666666666666666) + 1.0));
	else
		tmp = Float64(Float64(x * 0.5) + Float64(Float64(x * x) / Float64(24.0 / x)));
	end
	return tmp
end
function tmp_2 = code(x)
	tmp = 0.0;
	if (x <= 4.9)
		tmp = (x * 0.5) + (((x * x) * 0.16666666666666666) + 1.0);
	else
		tmp = (x * 0.5) + ((x * x) / (24.0 / x));
	end
	tmp_2 = tmp;
end
code[x_] := If[LessEqual[x, 4.9], N[(N[(x * 0.5), $MachinePrecision] + N[(N[(N[(x * x), $MachinePrecision] * 0.16666666666666666), $MachinePrecision] + 1.0), $MachinePrecision]), $MachinePrecision], N[(N[(x * 0.5), $MachinePrecision] + N[(N[(x * x), $MachinePrecision] / N[(24.0 / x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}

\\
\begin{array}{l}
\mathbf{if}\;x \leq 4.9:\\
\;\;\;\;x \cdot 0.5 + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 1\right)\\

\mathbf{else}:\\
\;\;\;\;x \cdot 0.5 + \frac{x \cdot x}{\frac{24}{x}}\\


\end{array}
\end{array}
Derivation
  1. Split input into 2 regimes
  2. if x < 4.9000000000000004

    1. Initial program 40.2%

      \[\frac{e^{x} - 1}{x} \]
    2. Step-by-step derivation
      1. expm1-def100.0%

        \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
    3. Simplified100.0%

      \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
    4. Taylor expanded in x around 0 63.7%

      \[\leadsto \color{blue}{0.5 \cdot x + \left(0.16666666666666666 \cdot {x}^{2} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
    5. Step-by-step derivation
      1. add-log-exp63.8%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      2. *-un-lft-identity63.8%

        \[\leadsto 0.5 \cdot x + \left(\log \color{blue}{\left(1 \cdot e^{0.16666666666666666 \cdot {x}^{2}}\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      3. log-prod63.8%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(\log 1 + \log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      4. metadata-eval63.8%

        \[\leadsto 0.5 \cdot x + \left(\left(\color{blue}{0} + \log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      5. add-log-exp63.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0 + \color{blue}{0.16666666666666666 \cdot {x}^{2}}\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
      6. unpow263.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0 + 0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)}\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    6. Applied egg-rr63.7%

      \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(0 + 0.16666666666666666 \cdot \left(x \cdot x\right)\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    7. Step-by-step derivation
      1. +-lft-identity63.7%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    8. Simplified63.7%

      \[\leadsto 0.5 \cdot x + \left(\color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \]
    9. Step-by-step derivation
      1. *-un-lft-identity63.7%

        \[\leadsto 0.5 \cdot x + \color{blue}{1 \cdot \left(0.16666666666666666 \cdot \left(x \cdot x\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
      2. *-commutative63.7%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right) \cdot 1} \]
      3. +-commutative63.7%

        \[\leadsto 0.5 \cdot x + \left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(0.041666666666666664 \cdot {x}^{3} + 1\right)}\right) \cdot 1 \]
      4. associate-+r+63.7%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + 0.041666666666666664 \cdot {x}^{3}\right) + 1\right)} \cdot 1 \]
      5. cube-mult63.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + 0.041666666666666664 \cdot \color{blue}{\left(x \cdot \left(x \cdot x\right)\right)}\right) + 1\right) \cdot 1 \]
      6. associate-*r*63.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(0.041666666666666664 \cdot x\right) \cdot \left(x \cdot x\right)}\right) + 1\right) \cdot 1 \]
      7. *-commutative63.7%

        \[\leadsto 0.5 \cdot x + \left(\left(0.16666666666666666 \cdot \left(x \cdot x\right) + \color{blue}{\left(x \cdot 0.041666666666666664\right)} \cdot \left(x \cdot x\right)\right) + 1\right) \cdot 1 \]
      8. distribute-rgt-in64.0%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)} + 1\right) \cdot 1 \]
      9. +-commutative64.0%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{\left(x \cdot 0.041666666666666664 + 0.16666666666666666\right)} + 1\right) \cdot 1 \]
      10. fma-def64.0%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{\mathsf{fma}\left(x, 0.041666666666666664, 0.16666666666666666\right)} + 1\right) \cdot 1 \]
    10. Applied egg-rr64.0%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(\left(x \cdot x\right) \cdot \mathsf{fma}\left(x, 0.041666666666666664, 0.16666666666666666\right) + 1\right) \cdot 1} \]
    11. Taylor expanded in x around 0 64.5%

      \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot \color{blue}{0.16666666666666666} + 1\right) \cdot 1 \]

    if 4.9000000000000004 < x

    1. Initial program 100.0%

      \[\frac{e^{x} - 1}{x} \]
    2. Step-by-step derivation
      1. expm1-def100.0%

        \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
    3. Simplified100.0%

      \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
    4. Taylor expanded in x around 0 68.2%

      \[\leadsto \color{blue}{0.5 \cdot x + \left(0.16666666666666666 \cdot {x}^{2} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
    5. Taylor expanded in x around inf 68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(0.16666666666666666 \cdot {x}^{2} + 0.041666666666666664 \cdot {x}^{3}\right)} \]
    6. Step-by-step derivation
      1. unpow268.2%

        \[\leadsto 0.5 \cdot x + \left(0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)} + 0.041666666666666664 \cdot {x}^{3}\right) \]
      2. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(x \cdot x\right) \cdot 0.16666666666666666} + 0.041666666666666664 \cdot {x}^{3}\right) \]
      3. cube-mult68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 0.041666666666666664 \cdot \color{blue}{\left(x \cdot \left(x \cdot x\right)\right)}\right) \]
      4. associate-*r*68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + \color{blue}{\left(0.041666666666666664 \cdot x\right) \cdot \left(x \cdot x\right)}\right) \]
      5. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + \color{blue}{\left(x \cdot x\right) \cdot \left(0.041666666666666664 \cdot x\right)}\right) \]
      6. distribute-lft-out68.2%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + 0.041666666666666664 \cdot x\right)} \]
      7. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(x \cdot x\right) \cdot \left(0.16666666666666666 + \color{blue}{x \cdot 0.041666666666666664}\right) \]
    7. Simplified68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)} \]
    8. Step-by-step derivation
      1. flip-+68.2%

        \[\leadsto 0.5 \cdot x + \left(x \cdot x\right) \cdot \color{blue}{\frac{0.16666666666666666 \cdot 0.16666666666666666 - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)}{0.16666666666666666 - x \cdot 0.041666666666666664}} \]
      2. associate-*r/78.0%

        \[\leadsto 0.5 \cdot x + \color{blue}{\frac{\left(x \cdot x\right) \cdot \left(0.16666666666666666 \cdot 0.16666666666666666 - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)\right)}{0.16666666666666666 - x \cdot 0.041666666666666664}} \]
      3. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(\color{blue}{0.027777777777777776} - \left(x \cdot 0.041666666666666664\right) \cdot \left(x \cdot 0.041666666666666664\right)\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      4. swap-sqr78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \color{blue}{\left(x \cdot x\right) \cdot \left(0.041666666666666664 \cdot 0.041666666666666664\right)}\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      5. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot \color{blue}{0.001736111111111111}\right)}{0.16666666666666666 - x \cdot 0.041666666666666664} \]
      6. *-commutative78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 - \color{blue}{0.041666666666666664 \cdot x}} \]
      7. cancel-sign-sub-inv78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{\color{blue}{0.16666666666666666 + \left(-0.041666666666666664\right) \cdot x}} \]
      8. metadata-eval78.0%

        \[\leadsto 0.5 \cdot x + \frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 + \color{blue}{-0.041666666666666664} \cdot x} \]
    9. Applied egg-rr78.0%

      \[\leadsto 0.5 \cdot x + \color{blue}{\frac{\left(x \cdot x\right) \cdot \left(0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111\right)}{0.16666666666666666 + -0.041666666666666664 \cdot x}} \]
    10. Step-by-step derivation
      1. associate-/l*68.2%

        \[\leadsto 0.5 \cdot x + \color{blue}{\frac{x \cdot x}{\frac{0.16666666666666666 + -0.041666666666666664 \cdot x}{0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111}}} \]
      2. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \frac{x \cdot x}{\frac{0.16666666666666666 + \color{blue}{x \cdot -0.041666666666666664}}{0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111}} \]
    11. Simplified68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\frac{x \cdot x}{\frac{0.16666666666666666 + x \cdot -0.041666666666666664}{0.027777777777777776 - \left(x \cdot x\right) \cdot 0.001736111111111111}}} \]
    12. Taylor expanded in x around inf 68.2%

      \[\leadsto 0.5 \cdot x + \frac{x \cdot x}{\color{blue}{\frac{24}{x}}} \]
  3. Recombined 2 regimes into one program.
  4. Final simplification65.4%

    \[\leadsto \begin{array}{l} \mathbf{if}\;x \leq 4.9:\\ \;\;\;\;x \cdot 0.5 + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 1\right)\\ \mathbf{else}:\\ \;\;\;\;x \cdot 0.5 + \frac{x \cdot x}{\frac{24}{x}}\\ \end{array} \]

Alternative 6: 63.8% accurate, 11.6× speedup?

\[\begin{array}{l} \\ \begin{array}{l} \mathbf{if}\;x \leq 1.35:\\ \;\;\;\;1\\ \mathbf{else}:\\ \;\;\;\;x \cdot \left(0.5 + x \cdot 0.16666666666666666\right)\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (if (<= x 1.35) 1.0 (* x (+ 0.5 (* x 0.16666666666666666)))))
double code(double x) {
	double tmp;
	if (x <= 1.35) {
		tmp = 1.0;
	} else {
		tmp = x * (0.5 + (x * 0.16666666666666666));
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: tmp
    if (x <= 1.35d0) then
        tmp = 1.0d0
    else
        tmp = x * (0.5d0 + (x * 0.16666666666666666d0))
    end if
    code = tmp
end function
public static double code(double x) {
	double tmp;
	if (x <= 1.35) {
		tmp = 1.0;
	} else {
		tmp = x * (0.5 + (x * 0.16666666666666666));
	}
	return tmp;
}
def code(x):
	tmp = 0
	if x <= 1.35:
		tmp = 1.0
	else:
		tmp = x * (0.5 + (x * 0.16666666666666666))
	return tmp
function code(x)
	tmp = 0.0
	if (x <= 1.35)
		tmp = 1.0;
	else
		tmp = Float64(x * Float64(0.5 + Float64(x * 0.16666666666666666)));
	end
	return tmp
end
function tmp_2 = code(x)
	tmp = 0.0;
	if (x <= 1.35)
		tmp = 1.0;
	else
		tmp = x * (0.5 + (x * 0.16666666666666666));
	end
	tmp_2 = tmp;
end
code[x_] := If[LessEqual[x, 1.35], 1.0, N[(x * N[(0.5 + N[(x * 0.16666666666666666), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}

\\
\begin{array}{l}
\mathbf{if}\;x \leq 1.35:\\
\;\;\;\;1\\

\mathbf{else}:\\
\;\;\;\;x \cdot \left(0.5 + x \cdot 0.16666666666666666\right)\\


\end{array}
\end{array}
Derivation
  1. Split input into 2 regimes
  2. if x < 1.3500000000000001

    1. Initial program 40.2%

      \[\frac{e^{x} - 1}{x} \]
    2. Step-by-step derivation
      1. expm1-def100.0%

        \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
    3. Simplified100.0%

      \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
    4. Taylor expanded in x around 0 64.4%

      \[\leadsto \color{blue}{1} \]

    if 1.3500000000000001 < x

    1. Initial program 100.0%

      \[\frac{e^{x} - 1}{x} \]
    2. Step-by-step derivation
      1. expm1-def100.0%

        \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
    3. Simplified100.0%

      \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
    4. Taylor expanded in x around 0 68.2%

      \[\leadsto \color{blue}{0.5 \cdot x + \left(0.16666666666666666 \cdot {x}^{2} + \left(1 + 0.041666666666666664 \cdot {x}^{3}\right)\right)} \]
    5. Taylor expanded in x around inf 68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(0.16666666666666666 \cdot {x}^{2} + 0.041666666666666664 \cdot {x}^{3}\right)} \]
    6. Step-by-step derivation
      1. unpow268.2%

        \[\leadsto 0.5 \cdot x + \left(0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)} + 0.041666666666666664 \cdot {x}^{3}\right) \]
      2. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(\color{blue}{\left(x \cdot x\right) \cdot 0.16666666666666666} + 0.041666666666666664 \cdot {x}^{3}\right) \]
      3. cube-mult68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + 0.041666666666666664 \cdot \color{blue}{\left(x \cdot \left(x \cdot x\right)\right)}\right) \]
      4. associate-*r*68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + \color{blue}{\left(0.041666666666666664 \cdot x\right) \cdot \left(x \cdot x\right)}\right) \]
      5. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(\left(x \cdot x\right) \cdot 0.16666666666666666 + \color{blue}{\left(x \cdot x\right) \cdot \left(0.041666666666666664 \cdot x\right)}\right) \]
      6. distribute-lft-out68.2%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + 0.041666666666666664 \cdot x\right)} \]
      7. *-commutative68.2%

        \[\leadsto 0.5 \cdot x + \left(x \cdot x\right) \cdot \left(0.16666666666666666 + \color{blue}{x \cdot 0.041666666666666664}\right) \]
    7. Simplified68.2%

      \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot 0.041666666666666664\right)} \]
    8. Taylor expanded in x around 0 52.0%

      \[\leadsto 0.5 \cdot x + \color{blue}{0.16666666666666666 \cdot {x}^{2}} \]
    9. Step-by-step derivation
      1. unpow252.0%

        \[\leadsto 0.5 \cdot x + 0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)} \]
      2. *-commutative52.0%

        \[\leadsto 0.5 \cdot x + \color{blue}{\left(x \cdot x\right) \cdot 0.16666666666666666} \]
      3. associate-*r*52.0%

        \[\leadsto 0.5 \cdot x + \color{blue}{x \cdot \left(x \cdot 0.16666666666666666\right)} \]
    10. Simplified52.0%

      \[\leadsto 0.5 \cdot x + \color{blue}{x \cdot \left(x \cdot 0.16666666666666666\right)} \]
    11. Step-by-step derivation
      1. +-commutative52.0%

        \[\leadsto \color{blue}{x \cdot \left(x \cdot 0.16666666666666666\right) + 0.5 \cdot x} \]
      2. *-commutative52.0%

        \[\leadsto x \cdot \left(x \cdot 0.16666666666666666\right) + \color{blue}{x \cdot 0.5} \]
      3. distribute-lft-out52.0%

        \[\leadsto \color{blue}{x \cdot \left(x \cdot 0.16666666666666666 + 0.5\right)} \]
    12. Applied egg-rr52.0%

      \[\leadsto \color{blue}{x \cdot \left(x \cdot 0.16666666666666666 + 0.5\right)} \]
  3. Recombined 2 regimes into one program.
  4. Final simplification61.3%

    \[\leadsto \begin{array}{l} \mathbf{if}\;x \leq 1.35:\\ \;\;\;\;1\\ \mathbf{else}:\\ \;\;\;\;x \cdot \left(0.5 + x \cdot 0.16666666666666666\right)\\ \end{array} \]

Alternative 7: 51.4% accurate, 21.0× speedup?

\[\begin{array}{l} \\ x \cdot 0.5 + 1 \end{array} \]
(FPCore (x) :precision binary64 (+ (* x 0.5) 1.0))
double code(double x) {
	return (x * 0.5) + 1.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (x * 0.5d0) + 1.0d0
end function
public static double code(double x) {
	return (x * 0.5) + 1.0;
}
def code(x):
	return (x * 0.5) + 1.0
function code(x)
	return Float64(Float64(x * 0.5) + 1.0)
end
function tmp = code(x)
	tmp = (x * 0.5) + 1.0;
end
code[x_] := N[(N[(x * 0.5), $MachinePrecision] + 1.0), $MachinePrecision]
\begin{array}{l}

\\
x \cdot 0.5 + 1
\end{array}
Derivation
  1. Initial program 55.4%

    \[\frac{e^{x} - 1}{x} \]
  2. Step-by-step derivation
    1. expm1-def100.0%

      \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
  3. Simplified100.0%

    \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
  4. Taylor expanded in x around 0 48.9%

    \[\leadsto \color{blue}{0.5 \cdot x + 1} \]
  5. Final simplification48.9%

    \[\leadsto x \cdot 0.5 + 1 \]

Alternative 8: 51.3% accurate, 105.0× speedup?

\[\begin{array}{l} \\ 1 \end{array} \]
(FPCore (x) :precision binary64 1.0)
double code(double x) {
	return 1.0;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = 1.0d0
end function
public static double code(double x) {
	return 1.0;
}
def code(x):
	return 1.0
function code(x)
	return 1.0
end
function tmp = code(x)
	tmp = 1.0;
end
code[x_] := 1.0
\begin{array}{l}

\\
1
\end{array}
Derivation
  1. Initial program 55.4%

    \[\frac{e^{x} - 1}{x} \]
  2. Step-by-step derivation
    1. expm1-def100.0%

      \[\leadsto \frac{\color{blue}{\mathsf{expm1}\left(x\right)}}{x} \]
  3. Simplified100.0%

    \[\leadsto \color{blue}{\frac{\mathsf{expm1}\left(x\right)}{x}} \]
  4. Taylor expanded in x around 0 48.9%

    \[\leadsto \color{blue}{1} \]
  5. Final simplification48.9%

    \[\leadsto 1 \]

Developer target: 52.4% accurate, 0.3× speedup?

\[\begin{array}{l} \\ \begin{array}{l} t_0 := e^{x} - 1\\ \mathbf{if}\;x < 1 \land x > -1:\\ \;\;\;\;\frac{t_0}{\log \left(e^{x}\right)}\\ \mathbf{else}:\\ \;\;\;\;\frac{t_0}{x}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (let* ((t_0 (- (exp x) 1.0)))
   (if (and (< x 1.0) (> x -1.0)) (/ t_0 (log (exp x))) (/ t_0 x))))
double code(double x) {
	double t_0 = exp(x) - 1.0;
	double tmp;
	if ((x < 1.0) && (x > -1.0)) {
		tmp = t_0 / log(exp(x));
	} else {
		tmp = t_0 / x;
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: t_0
    real(8) :: tmp
    t_0 = exp(x) - 1.0d0
    if ((x < 1.0d0) .and. (x > (-1.0d0))) then
        tmp = t_0 / log(exp(x))
    else
        tmp = t_0 / x
    end if
    code = tmp
end function
public static double code(double x) {
	double t_0 = Math.exp(x) - 1.0;
	double tmp;
	if ((x < 1.0) && (x > -1.0)) {
		tmp = t_0 / Math.log(Math.exp(x));
	} else {
		tmp = t_0 / x;
	}
	return tmp;
}
def code(x):
	t_0 = math.exp(x) - 1.0
	tmp = 0
	if (x < 1.0) and (x > -1.0):
		tmp = t_0 / math.log(math.exp(x))
	else:
		tmp = t_0 / x
	return tmp
function code(x)
	t_0 = Float64(exp(x) - 1.0)
	tmp = 0.0
	if ((x < 1.0) && (x > -1.0))
		tmp = Float64(t_0 / log(exp(x)));
	else
		tmp = Float64(t_0 / x);
	end
	return tmp
end
function tmp_2 = code(x)
	t_0 = exp(x) - 1.0;
	tmp = 0.0;
	if ((x < 1.0) && (x > -1.0))
		tmp = t_0 / log(exp(x));
	else
		tmp = t_0 / x;
	end
	tmp_2 = tmp;
end
code[x_] := Block[{t$95$0 = N[(N[Exp[x], $MachinePrecision] - 1.0), $MachinePrecision]}, If[And[Less[x, 1.0], Greater[x, -1.0]], N[(t$95$0 / N[Log[N[Exp[x], $MachinePrecision]], $MachinePrecision]), $MachinePrecision], N[(t$95$0 / x), $MachinePrecision]]]
\begin{array}{l}

\\
\begin{array}{l}
t_0 := e^{x} - 1\\
\mathbf{if}\;x < 1 \land x > -1:\\
\;\;\;\;\frac{t_0}{\log \left(e^{x}\right)}\\

\mathbf{else}:\\
\;\;\;\;\frac{t_0}{x}\\


\end{array}
\end{array}

Reproduce

?
herbie shell --seed 2023223 
(FPCore (x)
  :name "Kahan's exp quotient"
  :precision binary64

  :herbie-target
  (if (and (< x 1.0) (> x -1.0)) (/ (- (exp x) 1.0) (log (exp x))) (/ (- (exp x) 1.0) x))

  (/ (- (exp x) 1.0) x))