
(FPCore (x) :precision binary64 (- (cbrt (+ x 1.0)) (cbrt x)))
double code(double x) {
return cbrt((x + 1.0)) - cbrt(x);
}
public static double code(double x) {
return Math.cbrt((x + 1.0)) - Math.cbrt(x);
}
function code(x) return Float64(cbrt(Float64(x + 1.0)) - cbrt(x)) end
code[x_] := N[(N[Power[N[(x + 1.0), $MachinePrecision], 1/3], $MachinePrecision] - N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\sqrt[3]{x + 1} - \sqrt[3]{x}
\end{array}
Sampling outcomes in binary64 precision:
Herbie found 6 alternatives:
| Alternative | Accuracy | Speedup |
|---|
(FPCore (x) :precision binary64 (- (cbrt (+ x 1.0)) (cbrt x)))
double code(double x) {
return cbrt((x + 1.0)) - cbrt(x);
}
public static double code(double x) {
return Math.cbrt((x + 1.0)) - Math.cbrt(x);
}
function code(x) return Float64(cbrt(Float64(x + 1.0)) - cbrt(x)) end
code[x_] := N[(N[Power[N[(x + 1.0), $MachinePrecision], 1/3], $MachinePrecision] - N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\sqrt[3]{x + 1} - \sqrt[3]{x}
\end{array}
(FPCore (x)
:precision binary64
(/
(+
(/ -0.023148148148148147 (pow x 1.6666666666666667))
(+
(* (pow x -0.6666666666666666) 0.027777777777777776)
(+
(* 0.3333333333333333 (cbrt x))
(+
(/ 0.08487654320987655 (pow x 1.6666666666666667))
(* (pow x -0.6666666666666666) -0.1388888888888889)))))
x))
double code(double x) {
return ((-0.023148148148148147 / pow(x, 1.6666666666666667)) + ((pow(x, -0.6666666666666666) * 0.027777777777777776) + ((0.3333333333333333 * cbrt(x)) + ((0.08487654320987655 / pow(x, 1.6666666666666667)) + (pow(x, -0.6666666666666666) * -0.1388888888888889))))) / x;
}
public static double code(double x) {
return ((-0.023148148148148147 / Math.pow(x, 1.6666666666666667)) + ((Math.pow(x, -0.6666666666666666) * 0.027777777777777776) + ((0.3333333333333333 * Math.cbrt(x)) + ((0.08487654320987655 / Math.pow(x, 1.6666666666666667)) + (Math.pow(x, -0.6666666666666666) * -0.1388888888888889))))) / x;
}
function code(x) return Float64(Float64(Float64(-0.023148148148148147 / (x ^ 1.6666666666666667)) + Float64(Float64((x ^ -0.6666666666666666) * 0.027777777777777776) + Float64(Float64(0.3333333333333333 * cbrt(x)) + Float64(Float64(0.08487654320987655 / (x ^ 1.6666666666666667)) + Float64((x ^ -0.6666666666666666) * -0.1388888888888889))))) / x) end
code[x_] := N[(N[(N[(-0.023148148148148147 / N[Power[x, 1.6666666666666667], $MachinePrecision]), $MachinePrecision] + N[(N[(N[Power[x, -0.6666666666666666], $MachinePrecision] * 0.027777777777777776), $MachinePrecision] + N[(N[(0.3333333333333333 * N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision] + N[(N[(0.08487654320987655 / N[Power[x, 1.6666666666666667], $MachinePrecision]), $MachinePrecision] + N[(N[Power[x, -0.6666666666666666], $MachinePrecision] * -0.1388888888888889), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / x), $MachinePrecision]
\begin{array}{l}
\\
\frac{\frac{-0.023148148148148147}{{x}^{1.6666666666666667}} + \left({x}^{-0.6666666666666666} \cdot 0.027777777777777776 + \left(0.3333333333333333 \cdot \sqrt[3]{x} + \left(\frac{0.08487654320987655}{{x}^{1.6666666666666667}} + {x}^{-0.6666666666666666} \cdot -0.1388888888888889\right)\right)\right)}{x}
\end{array}
Initial program 6.5%
pow1/3N/A
sqr-powN/A
pow1/3N/A
sqr-powN/A
difference-of-squaresN/A
*-lowering-*.f64N/A
+-lowering-+.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
--lowering--.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-eval6.4%
Applied egg-rr6.4%
Taylor expanded in x around inf
/-lowering-/.f64N/A
Simplified98.8%
+-commutativeN/A
associate-+l+N/A
+-lowering-+.f64N/A
*-commutativeN/A
cbrt-divN/A
metadata-evalN/A
un-div-invN/A
/-lowering-/.f64N/A
pow1/3N/A
pow-powN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
Applied egg-rr98.9%
(FPCore (x) :precision binary64 (/ (+ (* 0.3333333333333333 (cbrt x)) (* (cbrt (/ (/ 1.0 x) x)) -0.1111111111111111)) x))
double code(double x) {
return ((0.3333333333333333 * cbrt(x)) + (cbrt(((1.0 / x) / x)) * -0.1111111111111111)) / x;
}
public static double code(double x) {
return ((0.3333333333333333 * Math.cbrt(x)) + (Math.cbrt(((1.0 / x) / x)) * -0.1111111111111111)) / x;
}
function code(x) return Float64(Float64(Float64(0.3333333333333333 * cbrt(x)) + Float64(cbrt(Float64(Float64(1.0 / x) / x)) * -0.1111111111111111)) / x) end
code[x_] := N[(N[(N[(0.3333333333333333 * N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision] + N[(N[Power[N[(N[(1.0 / x), $MachinePrecision] / x), $MachinePrecision], 1/3], $MachinePrecision] * -0.1111111111111111), $MachinePrecision]), $MachinePrecision] / x), $MachinePrecision]
\begin{array}{l}
\\
\frac{0.3333333333333333 \cdot \sqrt[3]{x} + \sqrt[3]{\frac{\frac{1}{x}}{x}} \cdot -0.1111111111111111}{x}
\end{array}
Initial program 6.5%
pow1/3N/A
sqr-powN/A
pow1/3N/A
sqr-powN/A
difference-of-squaresN/A
*-lowering-*.f64N/A
+-lowering-+.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
--lowering--.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-eval6.4%
Applied egg-rr6.4%
Taylor expanded in x around inf
/-lowering-/.f64N/A
associate-+r+N/A
+-commutativeN/A
+-lowering-+.f64N/A
*-lowering-*.f64N/A
cbrt-lowering-cbrt.f64N/A
distribute-rgt-outN/A
metadata-evalN/A
*-lowering-*.f64N/A
unpow2N/A
associate-/r*N/A
cbrt-lowering-cbrt.f64N/A
/-lowering-/.f64N/A
/-lowering-/.f6498.5%
Simplified98.5%
(FPCore (x) :precision binary64 (if (<= x 1.34e+154) (/ 0.3333333333333333 (cbrt (* x x))) (/ 0.3333333333333333 (pow x 0.6666666666666666))))
double code(double x) {
double tmp;
if (x <= 1.34e+154) {
tmp = 0.3333333333333333 / cbrt((x * x));
} else {
tmp = 0.3333333333333333 / pow(x, 0.6666666666666666);
}
return tmp;
}
public static double code(double x) {
double tmp;
if (x <= 1.34e+154) {
tmp = 0.3333333333333333 / Math.cbrt((x * x));
} else {
tmp = 0.3333333333333333 / Math.pow(x, 0.6666666666666666);
}
return tmp;
}
function code(x) tmp = 0.0 if (x <= 1.34e+154) tmp = Float64(0.3333333333333333 / cbrt(Float64(x * x))); else tmp = Float64(0.3333333333333333 / (x ^ 0.6666666666666666)); end return tmp end
code[x_] := If[LessEqual[x, 1.34e+154], N[(0.3333333333333333 / N[Power[N[(x * x), $MachinePrecision], 1/3], $MachinePrecision]), $MachinePrecision], N[(0.3333333333333333 / N[Power[x, 0.6666666666666666], $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;x \leq 1.34 \cdot 10^{+154}:\\
\;\;\;\;\frac{0.3333333333333333}{\sqrt[3]{x \cdot x}}\\
\mathbf{else}:\\
\;\;\;\;\frac{0.3333333333333333}{{x}^{0.6666666666666666}}\\
\end{array}
\end{array}
if x < 1.34000000000000001e154Initial program 8.2%
Taylor expanded in x around inf
*-lowering-*.f64N/A
metadata-evalN/A
associate-*r/N/A
cbrt-lowering-cbrt.f64N/A
associate-*r/N/A
metadata-evalN/A
/-lowering-/.f64N/A
unpow2N/A
*-lowering-*.f6495.7%
Simplified95.7%
cbrt-divN/A
metadata-evalN/A
cbrt-prodN/A
un-div-invN/A
/-lowering-/.f64N/A
pow1/3N/A
pow1/3N/A
pow-prod-upN/A
pow-lowering-pow.f64N/A
metadata-eval89.3%
Applied egg-rr89.3%
metadata-evalN/A
pow-powN/A
pow2N/A
pow1/3N/A
cbrt-lowering-cbrt.f64N/A
*-lowering-*.f6496.0%
Applied egg-rr96.0%
if 1.34000000000000001e154 < x Initial program 4.7%
Taylor expanded in x around inf
*-lowering-*.f64N/A
metadata-evalN/A
associate-*r/N/A
cbrt-lowering-cbrt.f64N/A
associate-*r/N/A
metadata-evalN/A
/-lowering-/.f64N/A
unpow2N/A
*-lowering-*.f644.7%
Simplified4.7%
cbrt-divN/A
metadata-evalN/A
cbrt-prodN/A
un-div-invN/A
/-lowering-/.f64N/A
pow1/3N/A
pow1/3N/A
pow-prod-upN/A
pow-lowering-pow.f64N/A
metadata-eval89.2%
Applied egg-rr89.2%
(FPCore (x) :precision binary64 (/ (* 0.3333333333333333 (cbrt x)) x))
double code(double x) {
return (0.3333333333333333 * cbrt(x)) / x;
}
public static double code(double x) {
return (0.3333333333333333 * Math.cbrt(x)) / x;
}
function code(x) return Float64(Float64(0.3333333333333333 * cbrt(x)) / x) end
code[x_] := N[(N[(0.3333333333333333 * N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision] / x), $MachinePrecision]
\begin{array}{l}
\\
\frac{0.3333333333333333 \cdot \sqrt[3]{x}}{x}
\end{array}
Initial program 6.5%
pow1/3N/A
sqr-powN/A
pow1/3N/A
sqr-powN/A
difference-of-squaresN/A
*-lowering-*.f64N/A
+-lowering-+.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
--lowering--.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-eval6.4%
Applied egg-rr6.4%
Taylor expanded in x around inf
/-lowering-/.f64N/A
Simplified98.8%
Taylor expanded in x around inf
*-commutativeN/A
*-lowering-*.f64N/A
cbrt-lowering-cbrt.f6497.5%
Simplified97.5%
Final simplification97.5%
(FPCore (x) :precision binary64 (* (pow x -0.6666666666666666) 0.3333333333333333))
double code(double x) {
return pow(x, -0.6666666666666666) * 0.3333333333333333;
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x ** (-0.6666666666666666d0)) * 0.3333333333333333d0
end function
public static double code(double x) {
return Math.pow(x, -0.6666666666666666) * 0.3333333333333333;
}
def code(x): return math.pow(x, -0.6666666666666666) * 0.3333333333333333
function code(x) return Float64((x ^ -0.6666666666666666) * 0.3333333333333333) end
function tmp = code(x) tmp = (x ^ -0.6666666666666666) * 0.3333333333333333; end
code[x_] := N[(N[Power[x, -0.6666666666666666], $MachinePrecision] * 0.3333333333333333), $MachinePrecision]
\begin{array}{l}
\\
{x}^{-0.6666666666666666} \cdot 0.3333333333333333
\end{array}
Initial program 6.5%
Taylor expanded in x around inf
*-lowering-*.f64N/A
metadata-evalN/A
associate-*r/N/A
cbrt-lowering-cbrt.f64N/A
associate-*r/N/A
metadata-evalN/A
/-lowering-/.f64N/A
unpow2N/A
*-lowering-*.f6449.8%
Simplified49.8%
*-commutativeN/A
*-lowering-*.f64N/A
pow1/3N/A
inv-powN/A
pow-powN/A
pow2N/A
pow-powN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
metadata-eval89.2%
Applied egg-rr89.2%
(FPCore (x) :precision binary64 (- 1.0 (cbrt x)))
double code(double x) {
return 1.0 - cbrt(x);
}
public static double code(double x) {
return 1.0 - Math.cbrt(x);
}
function code(x) return Float64(1.0 - cbrt(x)) end
code[x_] := N[(1.0 - N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
1 - \sqrt[3]{x}
\end{array}
Initial program 6.5%
Taylor expanded in x around 0
--lowering--.f64N/A
cbrt-lowering-cbrt.f641.8%
Simplified1.8%
(FPCore (x) :precision binary64 (let* ((t_0 (cbrt (+ x 1.0)))) (/ 1.0 (+ (+ (* t_0 t_0) (* (cbrt x) t_0)) (* (cbrt x) (cbrt x))))))
double code(double x) {
double t_0 = cbrt((x + 1.0));
return 1.0 / (((t_0 * t_0) + (cbrt(x) * t_0)) + (cbrt(x) * cbrt(x)));
}
public static double code(double x) {
double t_0 = Math.cbrt((x + 1.0));
return 1.0 / (((t_0 * t_0) + (Math.cbrt(x) * t_0)) + (Math.cbrt(x) * Math.cbrt(x)));
}
function code(x) t_0 = cbrt(Float64(x + 1.0)) return Float64(1.0 / Float64(Float64(Float64(t_0 * t_0) + Float64(cbrt(x) * t_0)) + Float64(cbrt(x) * cbrt(x)))) end
code[x_] := Block[{t$95$0 = N[Power[N[(x + 1.0), $MachinePrecision], 1/3], $MachinePrecision]}, N[(1.0 / N[(N[(N[(t$95$0 * t$95$0), $MachinePrecision] + N[(N[Power[x, 1/3], $MachinePrecision] * t$95$0), $MachinePrecision]), $MachinePrecision] + N[(N[Power[x, 1/3], $MachinePrecision] * N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
t_0 := \sqrt[3]{x + 1}\\
\frac{1}{\left(t\_0 \cdot t\_0 + \sqrt[3]{x} \cdot t\_0\right) + \sqrt[3]{x} \cdot \sqrt[3]{x}}
\end{array}
\end{array}
herbie shell --seed 2024155
(FPCore (x)
:name "2cbrt (problem 3.3.4)"
:precision binary64
:pre (and (> x 1.0) (< x 1e+308))
:alt
(! :herbie-platform default (/ 1 (+ (* (cbrt (+ x 1)) (cbrt (+ x 1))) (* (cbrt x) (cbrt (+ x 1))) (* (cbrt x) (cbrt x)))))
(- (cbrt (+ x 1.0)) (cbrt x)))