invcot (example 3.9)

Percentage Accurate: 6.4% → 99.7%
Time: 12.7s
Alternatives: 5
Speedup: 35.7×

Specification

?
\[-0.026 < x \land x < 0.026\]
\[\begin{array}{l} \\ \frac{1}{x} - \frac{1}{\tan x} \end{array} \]
(FPCore (x) :precision binary64 (- (/ 1.0 x) (/ 1.0 (tan x))))
double code(double x) {
	return (1.0 / x) - (1.0 / tan(x));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (1.0d0 / x) - (1.0d0 / tan(x))
end function
public static double code(double x) {
	return (1.0 / x) - (1.0 / Math.tan(x));
}
def code(x):
	return (1.0 / x) - (1.0 / math.tan(x))
function code(x)
	return Float64(Float64(1.0 / x) - Float64(1.0 / tan(x)))
end
function tmp = code(x)
	tmp = (1.0 / x) - (1.0 / tan(x));
end
code[x_] := N[(N[(1.0 / x), $MachinePrecision] - N[(1.0 / N[Tan[x], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
\frac{1}{x} - \frac{1}{\tan x}
\end{array}

Sampling outcomes in binary64 precision:

Local Percentage Accuracy vs ?

The average percentage accuracy by input value. Horizontal axis shows value of an input variable; the variable is choosen in the title. Vertical axis is accuracy; higher is better. Red represent the original program, while blue represents Herbie's suggestion. These can be toggled with buttons below the plot. The line is an average while dots represent individual samples.

Accuracy vs Speed?

Herbie found 5 alternatives:

AlternativeAccuracySpeedup
The accuracy (vertical axis) and speed (horizontal axis) of each alternatives. Up and to the right is better. The red square shows the initial program, and each blue circle shows an alternative.The line shows the best available speed-accuracy tradeoffs.

Initial Program: 6.4% accurate, 1.0× speedup?

\[\begin{array}{l} \\ \frac{1}{x} - \frac{1}{\tan x} \end{array} \]
(FPCore (x) :precision binary64 (- (/ 1.0 x) (/ 1.0 (tan x))))
double code(double x) {
	return (1.0 / x) - (1.0 / tan(x));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (1.0d0 / x) - (1.0d0 / tan(x))
end function
public static double code(double x) {
	return (1.0 / x) - (1.0 / Math.tan(x));
}
def code(x):
	return (1.0 / x) - (1.0 / math.tan(x))
function code(x)
	return Float64(Float64(1.0 / x) - Float64(1.0 / tan(x)))
end
function tmp = code(x)
	tmp = (1.0 / x) - (1.0 / tan(x));
end
code[x_] := N[(N[(1.0 / x), $MachinePrecision] - N[(1.0 / N[Tan[x], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
\frac{1}{x} - \frac{1}{\tan x}
\end{array}

Alternative 1: 99.7% accurate, 0.2× speedup?

\[\begin{array}{l} \\ \begin{array}{l} t_0 := \mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)\\ 0.0004938271604938272 \cdot \frac{{x}^{6}}{t_0} - \frac{x}{\frac{t_0}{x \cdot 0.1111111111111111}} \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (let* ((t_0 (fma (pow x 3.0) 0.022222222222222223 (* x -0.3333333333333333))))
   (-
    (* 0.0004938271604938272 (/ (pow x 6.0) t_0))
    (/ x (/ t_0 (* x 0.1111111111111111))))))
double code(double x) {
	double t_0 = fma(pow(x, 3.0), 0.022222222222222223, (x * -0.3333333333333333));
	return (0.0004938271604938272 * (pow(x, 6.0) / t_0)) - (x / (t_0 / (x * 0.1111111111111111)));
}
function code(x)
	t_0 = fma((x ^ 3.0), 0.022222222222222223, Float64(x * -0.3333333333333333))
	return Float64(Float64(0.0004938271604938272 * Float64((x ^ 6.0) / t_0)) - Float64(x / Float64(t_0 / Float64(x * 0.1111111111111111))))
end
code[x_] := Block[{t$95$0 = N[(N[Power[x, 3.0], $MachinePrecision] * 0.022222222222222223 + N[(x * -0.3333333333333333), $MachinePrecision]), $MachinePrecision]}, N[(N[(0.0004938271604938272 * N[(N[Power[x, 6.0], $MachinePrecision] / t$95$0), $MachinePrecision]), $MachinePrecision] - N[(x / N[(t$95$0 / N[(x * 0.1111111111111111), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}

\\
\begin{array}{l}
t_0 := \mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)\\
0.0004938271604938272 \cdot \frac{{x}^{6}}{t_0} - \frac{x}{\frac{t_0}{x \cdot 0.1111111111111111}}
\end{array}
\end{array}
Derivation
  1. Initial program 6.2%

    \[\frac{1}{x} - \frac{1}{\tan x} \]
  2. Taylor expanded in x around 0 99.5%

    \[\leadsto \color{blue}{0.3333333333333333 \cdot x + 0.022222222222222223 \cdot {x}^{3}} \]
  3. Step-by-step derivation
    1. +-commutative99.5%

      \[\leadsto \color{blue}{0.022222222222222223 \cdot {x}^{3} + 0.3333333333333333 \cdot x} \]
    2. flip-+57.8%

      \[\leadsto \color{blue}{\frac{\left(0.022222222222222223 \cdot {x}^{3}\right) \cdot \left(0.022222222222222223 \cdot {x}^{3}\right) - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x}} \]
    3. swap-sqr57.8%

      \[\leadsto \frac{\color{blue}{\left(0.022222222222222223 \cdot 0.022222222222222223\right) \cdot \left({x}^{3} \cdot {x}^{3}\right)} - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    4. metadata-eval57.8%

      \[\leadsto \frac{\color{blue}{0.0004938271604938272} \cdot \left({x}^{3} \cdot {x}^{3}\right) - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    5. pow-prod-up57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot \color{blue}{{x}^{\left(3 + 3\right)}} - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    6. metadata-eval57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot {x}^{\color{blue}{6}} - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    7. swap-sqr57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot {x}^{6} - \color{blue}{\left(0.3333333333333333 \cdot 0.3333333333333333\right) \cdot \left(x \cdot x\right)}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    8. metadata-eval57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot {x}^{6} - \color{blue}{0.1111111111111111} \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
  4. Applied egg-rr57.8%

    \[\leadsto \color{blue}{\frac{0.0004938271604938272 \cdot {x}^{6} - 0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x}} \]
  5. Step-by-step derivation
    1. div-sub57.8%

      \[\leadsto \color{blue}{\frac{0.0004938271604938272 \cdot {x}^{6}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x}} \]
    2. *-un-lft-identity57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot {x}^{6}}{\color{blue}{1 \cdot \left(0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x\right)}} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    3. times-frac57.8%

      \[\leadsto \color{blue}{\frac{0.0004938271604938272}{1} \cdot \frac{{x}^{6}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x}} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    4. metadata-eval57.8%

      \[\leadsto \color{blue}{0.0004938271604938272} \cdot \frac{{x}^{6}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    5. cancel-sign-sub-inv57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\color{blue}{0.022222222222222223 \cdot {x}^{3} + \left(-0.3333333333333333\right) \cdot x}} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    6. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\color{blue}{{x}^{3} \cdot 0.022222222222222223} + \left(-0.3333333333333333\right) \cdot x} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    7. fma-def57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\color{blue}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \left(-0.3333333333333333\right) \cdot x\right)}} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    8. metadata-eval57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \color{blue}{-0.3333333333333333} \cdot x\right)} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    9. associate-*r*57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{\color{blue}{\left(0.1111111111111111 \cdot x\right) \cdot x}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    10. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{\color{blue}{x \cdot \left(0.1111111111111111 \cdot x\right)}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    11. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \color{blue}{\left(x \cdot 0.1111111111111111\right)}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    12. cancel-sign-sub-inv57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\color{blue}{0.022222222222222223 \cdot {x}^{3} + \left(-0.3333333333333333\right) \cdot x}} \]
    13. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\color{blue}{{x}^{3} \cdot 0.022222222222222223} + \left(-0.3333333333333333\right) \cdot x} \]
    14. fma-def57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\color{blue}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \left(-0.3333333333333333\right) \cdot x\right)}} \]
    15. metadata-eval57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \color{blue}{-0.3333333333333333} \cdot x\right)} \]
  6. Applied egg-rr57.8%

    \[\leadsto \color{blue}{0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)}} \]
  7. Step-by-step derivation
    1. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \color{blue}{x \cdot -0.3333333333333333}\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} \]
    2. associate-/l*99.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \color{blue}{\frac{x}{\frac{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)}{x \cdot 0.1111111111111111}}} \]
    3. *-commutative99.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{\frac{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \color{blue}{x \cdot -0.3333333333333333}\right)}{x \cdot 0.1111111111111111}} \]
  8. Simplified99.8%

    \[\leadsto \color{blue}{0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{\frac{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)}{x \cdot 0.1111111111111111}}} \]
  9. Final simplification99.8%

    \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{\frac{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)}{x \cdot 0.1111111111111111}} \]

Alternative 2: 99.4% accurate, 0.3× speedup?

\[\begin{array}{l} \\ 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{-3} \end{array} \]
(FPCore (x)
 :precision binary64
 (-
  (*
   0.0004938271604938272
   (/
    (pow x 6.0)
    (fma (pow x 3.0) 0.022222222222222223 (* x -0.3333333333333333))))
  (/ x -3.0)))
double code(double x) {
	return (0.0004938271604938272 * (pow(x, 6.0) / fma(pow(x, 3.0), 0.022222222222222223, (x * -0.3333333333333333)))) - (x / -3.0);
}
function code(x)
	return Float64(Float64(0.0004938271604938272 * Float64((x ^ 6.0) / fma((x ^ 3.0), 0.022222222222222223, Float64(x * -0.3333333333333333)))) - Float64(x / -3.0))
end
code[x_] := N[(N[(0.0004938271604938272 * N[(N[Power[x, 6.0], $MachinePrecision] / N[(N[Power[x, 3.0], $MachinePrecision] * 0.022222222222222223 + N[(x * -0.3333333333333333), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] - N[(x / -3.0), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{-3}
\end{array}
Derivation
  1. Initial program 6.2%

    \[\frac{1}{x} - \frac{1}{\tan x} \]
  2. Taylor expanded in x around 0 99.5%

    \[\leadsto \color{blue}{0.3333333333333333 \cdot x + 0.022222222222222223 \cdot {x}^{3}} \]
  3. Step-by-step derivation
    1. +-commutative99.5%

      \[\leadsto \color{blue}{0.022222222222222223 \cdot {x}^{3} + 0.3333333333333333 \cdot x} \]
    2. flip-+57.8%

      \[\leadsto \color{blue}{\frac{\left(0.022222222222222223 \cdot {x}^{3}\right) \cdot \left(0.022222222222222223 \cdot {x}^{3}\right) - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x}} \]
    3. swap-sqr57.8%

      \[\leadsto \frac{\color{blue}{\left(0.022222222222222223 \cdot 0.022222222222222223\right) \cdot \left({x}^{3} \cdot {x}^{3}\right)} - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    4. metadata-eval57.8%

      \[\leadsto \frac{\color{blue}{0.0004938271604938272} \cdot \left({x}^{3} \cdot {x}^{3}\right) - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    5. pow-prod-up57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot \color{blue}{{x}^{\left(3 + 3\right)}} - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    6. metadata-eval57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot {x}^{\color{blue}{6}} - \left(0.3333333333333333 \cdot x\right) \cdot \left(0.3333333333333333 \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    7. swap-sqr57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot {x}^{6} - \color{blue}{\left(0.3333333333333333 \cdot 0.3333333333333333\right) \cdot \left(x \cdot x\right)}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    8. metadata-eval57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot {x}^{6} - \color{blue}{0.1111111111111111} \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
  4. Applied egg-rr57.8%

    \[\leadsto \color{blue}{\frac{0.0004938271604938272 \cdot {x}^{6} - 0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x}} \]
  5. Step-by-step derivation
    1. div-sub57.8%

      \[\leadsto \color{blue}{\frac{0.0004938271604938272 \cdot {x}^{6}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x}} \]
    2. *-un-lft-identity57.8%

      \[\leadsto \frac{0.0004938271604938272 \cdot {x}^{6}}{\color{blue}{1 \cdot \left(0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x\right)}} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    3. times-frac57.8%

      \[\leadsto \color{blue}{\frac{0.0004938271604938272}{1} \cdot \frac{{x}^{6}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x}} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    4. metadata-eval57.8%

      \[\leadsto \color{blue}{0.0004938271604938272} \cdot \frac{{x}^{6}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    5. cancel-sign-sub-inv57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\color{blue}{0.022222222222222223 \cdot {x}^{3} + \left(-0.3333333333333333\right) \cdot x}} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    6. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\color{blue}{{x}^{3} \cdot 0.022222222222222223} + \left(-0.3333333333333333\right) \cdot x} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    7. fma-def57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\color{blue}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \left(-0.3333333333333333\right) \cdot x\right)}} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    8. metadata-eval57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \color{blue}{-0.3333333333333333} \cdot x\right)} - \frac{0.1111111111111111 \cdot \left(x \cdot x\right)}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    9. associate-*r*57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{\color{blue}{\left(0.1111111111111111 \cdot x\right) \cdot x}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    10. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{\color{blue}{x \cdot \left(0.1111111111111111 \cdot x\right)}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    11. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \color{blue}{\left(x \cdot 0.1111111111111111\right)}}{0.022222222222222223 \cdot {x}^{3} - 0.3333333333333333 \cdot x} \]
    12. cancel-sign-sub-inv57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\color{blue}{0.022222222222222223 \cdot {x}^{3} + \left(-0.3333333333333333\right) \cdot x}} \]
    13. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\color{blue}{{x}^{3} \cdot 0.022222222222222223} + \left(-0.3333333333333333\right) \cdot x} \]
    14. fma-def57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\color{blue}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \left(-0.3333333333333333\right) \cdot x\right)}} \]
    15. metadata-eval57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \color{blue}{-0.3333333333333333} \cdot x\right)} \]
  6. Applied egg-rr57.8%

    \[\leadsto \color{blue}{0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)}} \]
  7. Step-by-step derivation
    1. *-commutative57.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \color{blue}{x \cdot -0.3333333333333333}\right)} - \frac{x \cdot \left(x \cdot 0.1111111111111111\right)}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)} \]
    2. associate-/l*99.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \color{blue}{\frac{x}{\frac{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, -0.3333333333333333 \cdot x\right)}{x \cdot 0.1111111111111111}}} \]
    3. *-commutative99.8%

      \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{\frac{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, \color{blue}{x \cdot -0.3333333333333333}\right)}{x \cdot 0.1111111111111111}} \]
  8. Simplified99.8%

    \[\leadsto \color{blue}{0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{\frac{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)}{x \cdot 0.1111111111111111}}} \]
  9. Taylor expanded in x around 0 99.6%

    \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{\color{blue}{-3}} \]
  10. Final simplification99.6%

    \[\leadsto 0.0004938271604938272 \cdot \frac{{x}^{6}}{\mathsf{fma}\left({x}^{3}, 0.022222222222222223, x \cdot -0.3333333333333333\right)} - \frac{x}{-3} \]

Alternative 3: 99.5% accurate, 0.5× speedup?

\[\begin{array}{l} \\ x \cdot 0.3333333333333333 + \left(0.0021164021164021165 \cdot {x}^{5} + {x}^{3} \cdot 0.022222222222222223\right) \end{array} \]
(FPCore (x)
 :precision binary64
 (+
  (* x 0.3333333333333333)
  (+
   (* 0.0021164021164021165 (pow x 5.0))
   (* (pow x 3.0) 0.022222222222222223))))
double code(double x) {
	return (x * 0.3333333333333333) + ((0.0021164021164021165 * pow(x, 5.0)) + (pow(x, 3.0) * 0.022222222222222223));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (x * 0.3333333333333333d0) + ((0.0021164021164021165d0 * (x ** 5.0d0)) + ((x ** 3.0d0) * 0.022222222222222223d0))
end function
public static double code(double x) {
	return (x * 0.3333333333333333) + ((0.0021164021164021165 * Math.pow(x, 5.0)) + (Math.pow(x, 3.0) * 0.022222222222222223));
}
def code(x):
	return (x * 0.3333333333333333) + ((0.0021164021164021165 * math.pow(x, 5.0)) + (math.pow(x, 3.0) * 0.022222222222222223))
function code(x)
	return Float64(Float64(x * 0.3333333333333333) + Float64(Float64(0.0021164021164021165 * (x ^ 5.0)) + Float64((x ^ 3.0) * 0.022222222222222223)))
end
function tmp = code(x)
	tmp = (x * 0.3333333333333333) + ((0.0021164021164021165 * (x ^ 5.0)) + ((x ^ 3.0) * 0.022222222222222223));
end
code[x_] := N[(N[(x * 0.3333333333333333), $MachinePrecision] + N[(N[(0.0021164021164021165 * N[Power[x, 5.0], $MachinePrecision]), $MachinePrecision] + N[(N[Power[x, 3.0], $MachinePrecision] * 0.022222222222222223), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
x \cdot 0.3333333333333333 + \left(0.0021164021164021165 \cdot {x}^{5} + {x}^{3} \cdot 0.022222222222222223\right)
\end{array}
Derivation
  1. Initial program 6.2%

    \[\frac{1}{x} - \frac{1}{\tan x} \]
  2. Taylor expanded in x around 0 99.5%

    \[\leadsto \color{blue}{0.3333333333333333 \cdot x + \left(0.0021164021164021165 \cdot {x}^{5} + 0.022222222222222223 \cdot {x}^{3}\right)} \]
  3. Final simplification99.5%

    \[\leadsto x \cdot 0.3333333333333333 + \left(0.0021164021164021165 \cdot {x}^{5} + {x}^{3} \cdot 0.022222222222222223\right) \]

Alternative 4: 99.4% accurate, 1.0× speedup?

\[\begin{array}{l} \\ x \cdot 0.3333333333333333 + {x}^{3} \cdot 0.022222222222222223 \end{array} \]
(FPCore (x)
 :precision binary64
 (+ (* x 0.3333333333333333) (* (pow x 3.0) 0.022222222222222223)))
double code(double x) {
	return (x * 0.3333333333333333) + (pow(x, 3.0) * 0.022222222222222223);
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (x * 0.3333333333333333d0) + ((x ** 3.0d0) * 0.022222222222222223d0)
end function
public static double code(double x) {
	return (x * 0.3333333333333333) + (Math.pow(x, 3.0) * 0.022222222222222223);
}
def code(x):
	return (x * 0.3333333333333333) + (math.pow(x, 3.0) * 0.022222222222222223)
function code(x)
	return Float64(Float64(x * 0.3333333333333333) + Float64((x ^ 3.0) * 0.022222222222222223))
end
function tmp = code(x)
	tmp = (x * 0.3333333333333333) + ((x ^ 3.0) * 0.022222222222222223);
end
code[x_] := N[(N[(x * 0.3333333333333333), $MachinePrecision] + N[(N[Power[x, 3.0], $MachinePrecision] * 0.022222222222222223), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
x \cdot 0.3333333333333333 + {x}^{3} \cdot 0.022222222222222223
\end{array}
Derivation
  1. Initial program 6.2%

    \[\frac{1}{x} - \frac{1}{\tan x} \]
  2. Taylor expanded in x around 0 99.5%

    \[\leadsto \color{blue}{0.3333333333333333 \cdot x + 0.022222222222222223 \cdot {x}^{3}} \]
  3. Final simplification99.5%

    \[\leadsto x \cdot 0.3333333333333333 + {x}^{3} \cdot 0.022222222222222223 \]

Alternative 5: 99.0% accurate, 35.7× speedup?

\[\begin{array}{l} \\ x \cdot 0.3333333333333333 \end{array} \]
(FPCore (x) :precision binary64 (* x 0.3333333333333333))
double code(double x) {
	return x * 0.3333333333333333;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = x * 0.3333333333333333d0
end function
public static double code(double x) {
	return x * 0.3333333333333333;
}
def code(x):
	return x * 0.3333333333333333
function code(x)
	return Float64(x * 0.3333333333333333)
end
function tmp = code(x)
	tmp = x * 0.3333333333333333;
end
code[x_] := N[(x * 0.3333333333333333), $MachinePrecision]
\begin{array}{l}

\\
x \cdot 0.3333333333333333
\end{array}
Derivation
  1. Initial program 6.2%

    \[\frac{1}{x} - \frac{1}{\tan x} \]
  2. Taylor expanded in x around 0 99.1%

    \[\leadsto \color{blue}{0.3333333333333333 \cdot x} \]
  3. Final simplification99.1%

    \[\leadsto x \cdot 0.3333333333333333 \]

Developer target: 99.9% accurate, 0.5× speedup?

\[\begin{array}{l} \\ \begin{array}{l} \mathbf{if}\;\left|x\right| < 0.026:\\ \;\;\;\;\frac{x}{3} \cdot \left(1 + \frac{x \cdot x}{15}\right)\\ \mathbf{else}:\\ \;\;\;\;\frac{1}{x} - \frac{1}{\tan x}\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (if (< (fabs x) 0.026)
   (* (/ x 3.0) (+ 1.0 (/ (* x x) 15.0)))
   (- (/ 1.0 x) (/ 1.0 (tan x)))))
double code(double x) {
	double tmp;
	if (fabs(x) < 0.026) {
		tmp = (x / 3.0) * (1.0 + ((x * x) / 15.0));
	} else {
		tmp = (1.0 / x) - (1.0 / tan(x));
	}
	return tmp;
}
real(8) function code(x)
    real(8), intent (in) :: x
    real(8) :: tmp
    if (abs(x) < 0.026d0) then
        tmp = (x / 3.0d0) * (1.0d0 + ((x * x) / 15.0d0))
    else
        tmp = (1.0d0 / x) - (1.0d0 / tan(x))
    end if
    code = tmp
end function
public static double code(double x) {
	double tmp;
	if (Math.abs(x) < 0.026) {
		tmp = (x / 3.0) * (1.0 + ((x * x) / 15.0));
	} else {
		tmp = (1.0 / x) - (1.0 / Math.tan(x));
	}
	return tmp;
}
def code(x):
	tmp = 0
	if math.fabs(x) < 0.026:
		tmp = (x / 3.0) * (1.0 + ((x * x) / 15.0))
	else:
		tmp = (1.0 / x) - (1.0 / math.tan(x))
	return tmp
function code(x)
	tmp = 0.0
	if (abs(x) < 0.026)
		tmp = Float64(Float64(x / 3.0) * Float64(1.0 + Float64(Float64(x * x) / 15.0)));
	else
		tmp = Float64(Float64(1.0 / x) - Float64(1.0 / tan(x)));
	end
	return tmp
end
function tmp_2 = code(x)
	tmp = 0.0;
	if (abs(x) < 0.026)
		tmp = (x / 3.0) * (1.0 + ((x * x) / 15.0));
	else
		tmp = (1.0 / x) - (1.0 / tan(x));
	end
	tmp_2 = tmp;
end
code[x_] := If[Less[N[Abs[x], $MachinePrecision], 0.026], N[(N[(x / 3.0), $MachinePrecision] * N[(1.0 + N[(N[(x * x), $MachinePrecision] / 15.0), $MachinePrecision]), $MachinePrecision]), $MachinePrecision], N[(N[(1.0 / x), $MachinePrecision] - N[(1.0 / N[Tan[x], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}

\\
\begin{array}{l}
\mathbf{if}\;\left|x\right| < 0.026:\\
\;\;\;\;\frac{x}{3} \cdot \left(1 + \frac{x \cdot x}{15}\right)\\

\mathbf{else}:\\
\;\;\;\;\frac{1}{x} - \frac{1}{\tan x}\\


\end{array}
\end{array}

Reproduce

?
herbie shell --seed 2023187 
(FPCore (x)
  :name "invcot (example 3.9)"
  :precision binary64
  :pre (and (< -0.026 x) (< x 0.026))

  :herbie-target
  (if (< (fabs x) 0.026) (* (/ x 3.0) (+ 1.0 (/ (* x x) 15.0))) (- (/ 1.0 x) (/ 1.0 (tan x))))

  (- (/ 1.0 x) (/ 1.0 (tan x))))