
(FPCore (x) :precision binary64 (- (cbrt (+ x 1.0)) (cbrt x)))
double code(double x) {
return cbrt((x + 1.0)) - cbrt(x);
}
public static double code(double x) {
return Math.cbrt((x + 1.0)) - Math.cbrt(x);
}
function code(x) return Float64(cbrt(Float64(x + 1.0)) - cbrt(x)) end
code[x_] := N[(N[Power[N[(x + 1.0), $MachinePrecision], 1/3], $MachinePrecision] - N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\sqrt[3]{x + 1} - \sqrt[3]{x}
\end{array}
Sampling outcomes in binary64 precision:
Herbie found 8 alternatives:
| Alternative | Accuracy | Speedup |
|---|
(FPCore (x) :precision binary64 (- (cbrt (+ x 1.0)) (cbrt x)))
double code(double x) {
return cbrt((x + 1.0)) - cbrt(x);
}
public static double code(double x) {
return Math.cbrt((x + 1.0)) - Math.cbrt(x);
}
function code(x) return Float64(cbrt(Float64(x + 1.0)) - cbrt(x)) end
code[x_] := N[(N[Power[N[(x + 1.0), $MachinePrecision], 1/3], $MachinePrecision] - N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\sqrt[3]{x + 1} - \sqrt[3]{x}
\end{array}
(FPCore (x)
:precision binary64
(/
-1.0
(/
x
(+
(/ 0.1111111111111111 (pow x 0.6666666666666666))
(* (cbrt x) -0.3333333333333333)))))
double code(double x) {
return -1.0 / (x / ((0.1111111111111111 / pow(x, 0.6666666666666666)) + (cbrt(x) * -0.3333333333333333)));
}
public static double code(double x) {
return -1.0 / (x / ((0.1111111111111111 / Math.pow(x, 0.6666666666666666)) + (Math.cbrt(x) * -0.3333333333333333)));
}
function code(x) return Float64(-1.0 / Float64(x / Float64(Float64(0.1111111111111111 / (x ^ 0.6666666666666666)) + Float64(cbrt(x) * -0.3333333333333333)))) end
code[x_] := N[(-1.0 / N[(x / N[(N[(0.1111111111111111 / N[Power[x, 0.6666666666666666], $MachinePrecision]), $MachinePrecision] + N[(N[Power[x, 1/3], $MachinePrecision] * -0.3333333333333333), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{-1}{\frac{x}{\frac{0.1111111111111111}{{x}^{0.6666666666666666}} + \sqrt[3]{x} \cdot -0.3333333333333333}}
\end{array}
Initial program 6.5%
pow1/3N/A
sqr-powN/A
pow1/3N/A
sqr-powN/A
difference-of-squaresN/A
*-lowering-*.f64N/A
+-lowering-+.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
--lowering--.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-eval6.5%
Applied egg-rr6.5%
Taylor expanded in x around inf
/-lowering-/.f64N/A
Simplified98.2%
Applied egg-rr98.3%
(FPCore (x) :precision binary64 (/ (+ (* (cbrt x) 0.3333333333333333) (/ -0.1111111111111111 (pow x 0.6666666666666666))) x))
double code(double x) {
return ((cbrt(x) * 0.3333333333333333) + (-0.1111111111111111 / pow(x, 0.6666666666666666))) / x;
}
public static double code(double x) {
return ((Math.cbrt(x) * 0.3333333333333333) + (-0.1111111111111111 / Math.pow(x, 0.6666666666666666))) / x;
}
function code(x) return Float64(Float64(Float64(cbrt(x) * 0.3333333333333333) + Float64(-0.1111111111111111 / (x ^ 0.6666666666666666))) / x) end
code[x_] := N[(N[(N[(N[Power[x, 1/3], $MachinePrecision] * 0.3333333333333333), $MachinePrecision] + N[(-0.1111111111111111 / N[Power[x, 0.6666666666666666], $MachinePrecision]), $MachinePrecision]), $MachinePrecision] / x), $MachinePrecision]
\begin{array}{l}
\\
\frac{\sqrt[3]{x} \cdot 0.3333333333333333 + \frac{-0.1111111111111111}{{x}^{0.6666666666666666}}}{x}
\end{array}
Initial program 6.5%
pow1/3N/A
sqr-powN/A
pow1/3N/A
sqr-powN/A
difference-of-squaresN/A
*-lowering-*.f64N/A
+-lowering-+.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
--lowering--.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-eval6.5%
Applied egg-rr6.5%
Taylor expanded in x around inf
/-lowering-/.f64N/A
Simplified98.2%
*-commutativeN/A
associate-/r*N/A
cbrt-divN/A
cbrt-divN/A
metadata-evalN/A
associate-*r/N/A
un-div-invN/A
associate-/r*N/A
/-lowering-/.f64N/A
pow1/3N/A
pow1/3N/A
pow-sqrN/A
pow-lowering-pow.f64N/A
metadata-eval98.2%
Applied egg-rr98.2%
Final simplification98.2%
(FPCore (x) :precision binary64 (if (<= x 1.35e+154) (/ 0.3333333333333333 (cbrt (* x x))) (/ 0.3333333333333333 (pow x 0.6666666666666666))))
double code(double x) {
double tmp;
if (x <= 1.35e+154) {
tmp = 0.3333333333333333 / cbrt((x * x));
} else {
tmp = 0.3333333333333333 / pow(x, 0.6666666666666666);
}
return tmp;
}
public static double code(double x) {
double tmp;
if (x <= 1.35e+154) {
tmp = 0.3333333333333333 / Math.cbrt((x * x));
} else {
tmp = 0.3333333333333333 / Math.pow(x, 0.6666666666666666);
}
return tmp;
}
function code(x) tmp = 0.0 if (x <= 1.35e+154) tmp = Float64(0.3333333333333333 / cbrt(Float64(x * x))); else tmp = Float64(0.3333333333333333 / (x ^ 0.6666666666666666)); end return tmp end
code[x_] := If[LessEqual[x, 1.35e+154], N[(0.3333333333333333 / N[Power[N[(x * x), $MachinePrecision], 1/3], $MachinePrecision]), $MachinePrecision], N[(0.3333333333333333 / N[Power[x, 0.6666666666666666], $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;x \leq 1.35 \cdot 10^{+154}:\\
\;\;\;\;\frac{0.3333333333333333}{\sqrt[3]{x \cdot x}}\\
\mathbf{else}:\\
\;\;\;\;\frac{0.3333333333333333}{{x}^{0.6666666666666666}}\\
\end{array}
\end{array}
if x < 1.35000000000000003e154Initial program 8.0%
Taylor expanded in x around inf
*-lowering-*.f64N/A
metadata-evalN/A
associate-*r/N/A
cbrt-lowering-cbrt.f64N/A
associate-*r/N/A
metadata-evalN/A
/-lowering-/.f64N/A
unpow2N/A
*-lowering-*.f6495.8%
Simplified95.8%
cbrt-divN/A
metadata-evalN/A
cbrt-prodN/A
un-div-invN/A
/-lowering-/.f64N/A
pow1/3N/A
pow1/3N/A
pow-prod-upN/A
pow-lowering-pow.f64N/A
metadata-eval89.1%
Applied egg-rr89.1%
metadata-evalN/A
pow-powN/A
pow2N/A
pow1/3N/A
cbrt-lowering-cbrt.f64N/A
*-lowering-*.f6496.0%
Applied egg-rr96.0%
if 1.35000000000000003e154 < x Initial program 4.7%
Taylor expanded in x around inf
*-lowering-*.f64N/A
metadata-evalN/A
associate-*r/N/A
cbrt-lowering-cbrt.f64N/A
associate-*r/N/A
metadata-evalN/A
/-lowering-/.f64N/A
unpow2N/A
*-lowering-*.f644.7%
Simplified4.7%
cbrt-divN/A
metadata-evalN/A
cbrt-prodN/A
un-div-invN/A
/-lowering-/.f64N/A
pow1/3N/A
pow1/3N/A
pow-prod-upN/A
pow-lowering-pow.f64N/A
metadata-eval89.2%
Applied egg-rr89.2%
(FPCore (x) :precision binary64 (/ -1.0 (/ x (* (cbrt x) -0.3333333333333333))))
double code(double x) {
return -1.0 / (x / (cbrt(x) * -0.3333333333333333));
}
public static double code(double x) {
return -1.0 / (x / (Math.cbrt(x) * -0.3333333333333333));
}
function code(x) return Float64(-1.0 / Float64(x / Float64(cbrt(x) * -0.3333333333333333))) end
code[x_] := N[(-1.0 / N[(x / N[(N[Power[x, 1/3], $MachinePrecision] * -0.3333333333333333), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{-1}{\frac{x}{\sqrt[3]{x} \cdot -0.3333333333333333}}
\end{array}
Initial program 6.5%
pow1/3N/A
sqr-powN/A
pow1/3N/A
sqr-powN/A
difference-of-squaresN/A
*-lowering-*.f64N/A
+-lowering-+.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
--lowering--.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-eval6.5%
Applied egg-rr6.5%
Taylor expanded in x around inf
/-lowering-/.f64N/A
Simplified98.2%
Applied egg-rr98.3%
Taylor expanded in x around inf
*-commutativeN/A
*-lowering-*.f64N/A
cbrt-lowering-cbrt.f6497.4%
Simplified97.4%
(FPCore (x) :precision binary64 (/ (* (cbrt x) 0.3333333333333333) x))
double code(double x) {
return (cbrt(x) * 0.3333333333333333) / x;
}
public static double code(double x) {
return (Math.cbrt(x) * 0.3333333333333333) / x;
}
function code(x) return Float64(Float64(cbrt(x) * 0.3333333333333333) / x) end
code[x_] := N[(N[(N[Power[x, 1/3], $MachinePrecision] * 0.3333333333333333), $MachinePrecision] / x), $MachinePrecision]
\begin{array}{l}
\\
\frac{\sqrt[3]{x} \cdot 0.3333333333333333}{x}
\end{array}
Initial program 6.5%
pow1/3N/A
sqr-powN/A
pow1/3N/A
sqr-powN/A
difference-of-squaresN/A
*-lowering-*.f64N/A
+-lowering-+.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
--lowering--.f64N/A
pow-lowering-pow.f64N/A
+-lowering-+.f64N/A
metadata-evalN/A
pow-lowering-pow.f64N/A
metadata-eval6.5%
Applied egg-rr6.5%
Taylor expanded in x around inf
/-lowering-/.f64N/A
Simplified98.2%
Taylor expanded in x around inf
*-commutativeN/A
*-lowering-*.f64N/A
cbrt-lowering-cbrt.f6497.4%
Simplified97.4%
(FPCore (x) :precision binary64 (/ 0.3333333333333333 (pow x 0.6666666666666666)))
double code(double x) {
return 0.3333333333333333 / pow(x, 0.6666666666666666);
}
real(8) function code(x)
real(8), intent (in) :: x
code = 0.3333333333333333d0 / (x ** 0.6666666666666666d0)
end function
public static double code(double x) {
return 0.3333333333333333 / Math.pow(x, 0.6666666666666666);
}
def code(x): return 0.3333333333333333 / math.pow(x, 0.6666666666666666)
function code(x) return Float64(0.3333333333333333 / (x ^ 0.6666666666666666)) end
function tmp = code(x) tmp = 0.3333333333333333 / (x ^ 0.6666666666666666); end
code[x_] := N[(0.3333333333333333 / N[Power[x, 0.6666666666666666], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{0.3333333333333333}{{x}^{0.6666666666666666}}
\end{array}
Initial program 6.5%
Taylor expanded in x around inf
*-lowering-*.f64N/A
metadata-evalN/A
associate-*r/N/A
cbrt-lowering-cbrt.f64N/A
associate-*r/N/A
metadata-evalN/A
/-lowering-/.f64N/A
unpow2N/A
*-lowering-*.f6454.2%
Simplified54.2%
cbrt-divN/A
metadata-evalN/A
cbrt-prodN/A
un-div-invN/A
/-lowering-/.f64N/A
pow1/3N/A
pow1/3N/A
pow-prod-upN/A
pow-lowering-pow.f64N/A
metadata-eval89.1%
Applied egg-rr89.1%
(FPCore (x) :precision binary64 (* 0.3333333333333333 (pow x -0.6666666666666666)))
double code(double x) {
return 0.3333333333333333 * pow(x, -0.6666666666666666);
}
real(8) function code(x)
real(8), intent (in) :: x
code = 0.3333333333333333d0 * (x ** (-0.6666666666666666d0))
end function
public static double code(double x) {
return 0.3333333333333333 * Math.pow(x, -0.6666666666666666);
}
def code(x): return 0.3333333333333333 * math.pow(x, -0.6666666666666666)
function code(x) return Float64(0.3333333333333333 * (x ^ -0.6666666666666666)) end
function tmp = code(x) tmp = 0.3333333333333333 * (x ^ -0.6666666666666666); end
code[x_] := N[(0.3333333333333333 * N[Power[x, -0.6666666666666666], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
0.3333333333333333 \cdot {x}^{-0.6666666666666666}
\end{array}
Initial program 6.5%
Taylor expanded in x around inf
*-lowering-*.f64N/A
metadata-evalN/A
associate-*r/N/A
cbrt-lowering-cbrt.f64N/A
associate-*r/N/A
metadata-evalN/A
/-lowering-/.f64N/A
unpow2N/A
*-lowering-*.f6454.2%
Simplified54.2%
*-commutativeN/A
*-lowering-*.f64N/A
pow1/3N/A
inv-powN/A
pow-powN/A
pow2N/A
pow-powN/A
pow-lowering-pow.f64N/A
metadata-evalN/A
metadata-eval89.1%
Applied egg-rr89.1%
Final simplification89.1%
(FPCore (x) :precision binary64 (- 1.0 (cbrt x)))
double code(double x) {
return 1.0 - cbrt(x);
}
public static double code(double x) {
return 1.0 - Math.cbrt(x);
}
function code(x) return Float64(1.0 - cbrt(x)) end
code[x_] := N[(1.0 - N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
1 - \sqrt[3]{x}
\end{array}
Initial program 6.5%
Taylor expanded in x around 0
--lowering--.f64N/A
cbrt-lowering-cbrt.f641.8%
Simplified1.8%
(FPCore (x) :precision binary64 (let* ((t_0 (cbrt (+ x 1.0)))) (/ 1.0 (+ (+ (* t_0 t_0) (* (cbrt x) t_0)) (* (cbrt x) (cbrt x))))))
double code(double x) {
double t_0 = cbrt((x + 1.0));
return 1.0 / (((t_0 * t_0) + (cbrt(x) * t_0)) + (cbrt(x) * cbrt(x)));
}
public static double code(double x) {
double t_0 = Math.cbrt((x + 1.0));
return 1.0 / (((t_0 * t_0) + (Math.cbrt(x) * t_0)) + (Math.cbrt(x) * Math.cbrt(x)));
}
function code(x) t_0 = cbrt(Float64(x + 1.0)) return Float64(1.0 / Float64(Float64(Float64(t_0 * t_0) + Float64(cbrt(x) * t_0)) + Float64(cbrt(x) * cbrt(x)))) end
code[x_] := Block[{t$95$0 = N[Power[N[(x + 1.0), $MachinePrecision], 1/3], $MachinePrecision]}, N[(1.0 / N[(N[(N[(t$95$0 * t$95$0), $MachinePrecision] + N[(N[Power[x, 1/3], $MachinePrecision] * t$95$0), $MachinePrecision]), $MachinePrecision] + N[(N[Power[x, 1/3], $MachinePrecision] * N[Power[x, 1/3], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
t_0 := \sqrt[3]{x + 1}\\
\frac{1}{\left(t\_0 \cdot t\_0 + \sqrt[3]{x} \cdot t\_0\right) + \sqrt[3]{x} \cdot \sqrt[3]{x}}
\end{array}
\end{array}
herbie shell --seed 2024150
(FPCore (x)
:name "2cbrt (problem 3.3.4)"
:precision binary64
:pre (and (> x 1.0) (< x 1e+308))
:alt
(! :herbie-platform default (/ 1 (+ (* (cbrt (+ x 1)) (cbrt (+ x 1))) (* (cbrt x) (cbrt (+ x 1))) (* (cbrt x) (cbrt x)))))
(- (cbrt (+ x 1.0)) (cbrt x)))