
(FPCore (x) :precision binary64 (- (sin x) x))
double code(double x) {
return sin(x) - x;
}
real(8) function code(x)
real(8), intent (in) :: x
code = sin(x) - x
end function
public static double code(double x) {
return Math.sin(x) - x;
}
def code(x): return math.sin(x) - x
function code(x) return Float64(sin(x) - x) end
function tmp = code(x) tmp = sin(x) - x; end
code[x_] := N[(N[Sin[x], $MachinePrecision] - x), $MachinePrecision]
\begin{array}{l}
\\
\sin x - x
\end{array}
Sampling outcomes in binary64 precision:
Herbie found 7 alternatives:
| Alternative | Accuracy | Speedup |
|---|
(FPCore (x) :precision binary64 (- (sin x) x))
double code(double x) {
return sin(x) - x;
}
real(8) function code(x)
real(8), intent (in) :: x
code = sin(x) - x
end function
public static double code(double x) {
return Math.sin(x) - x;
}
def code(x): return math.sin(x) - x
function code(x) return Float64(sin(x) - x) end
function tmp = code(x) tmp = sin(x) - x; end
code[x_] := N[(N[Sin[x], $MachinePrecision] - x), $MachinePrecision]
\begin{array}{l}
\\
\sin x - x
\end{array}
(FPCore (x)
:precision binary64
(let* ((t_0 (fma (pow x 2.0) -0.0001984126984126984 0.008333333333333333)))
(*
(+ -0.004629629629629629 (pow (* (pow x 2.0) t_0) 3.0))
(/
(pow x 3.0)
(fma
(pow x 4.0)
(pow t_0 2.0)
(+ 0.027777777777777776 (* t_0 (* (pow x 2.0) 0.16666666666666666))))))))
double code(double x) {
double t_0 = fma(pow(x, 2.0), -0.0001984126984126984, 0.008333333333333333);
return (-0.004629629629629629 + pow((pow(x, 2.0) * t_0), 3.0)) * (pow(x, 3.0) / fma(pow(x, 4.0), pow(t_0, 2.0), (0.027777777777777776 + (t_0 * (pow(x, 2.0) * 0.16666666666666666)))));
}
function code(x) t_0 = fma((x ^ 2.0), -0.0001984126984126984, 0.008333333333333333) return Float64(Float64(-0.004629629629629629 + (Float64((x ^ 2.0) * t_0) ^ 3.0)) * Float64((x ^ 3.0) / fma((x ^ 4.0), (t_0 ^ 2.0), Float64(0.027777777777777776 + Float64(t_0 * Float64((x ^ 2.0) * 0.16666666666666666)))))) end
code[x_] := Block[{t$95$0 = N[(N[Power[x, 2.0], $MachinePrecision] * -0.0001984126984126984 + 0.008333333333333333), $MachinePrecision]}, N[(N[(-0.004629629629629629 + N[Power[N[(N[Power[x, 2.0], $MachinePrecision] * t$95$0), $MachinePrecision], 3.0], $MachinePrecision]), $MachinePrecision] * N[(N[Power[x, 3.0], $MachinePrecision] / N[(N[Power[x, 4.0], $MachinePrecision] * N[Power[t$95$0, 2.0], $MachinePrecision] + N[(0.027777777777777776 + N[(t$95$0 * N[(N[Power[x, 2.0], $MachinePrecision] * 0.16666666666666666), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
t_0 := \mathsf{fma}\left({x}^{2}, -0.0001984126984126984, 0.008333333333333333\right)\\
\left(-0.004629629629629629 + {\left({x}^{2} \cdot t\_0\right)}^{3}\right) \cdot \frac{{x}^{3}}{\mathsf{fma}\left({x}^{4}, {t\_0}^{2}, 0.027777777777777776 + t\_0 \cdot \left({x}^{2} \cdot 0.16666666666666666\right)\right)}
\end{array}
\end{array}
Initial program 68.4%
Taylor expanded in x around 0 99.1%
flip3--98.6%
associate-*r/98.5%
Applied egg-rr98.9%
*-commutative98.9%
associate-/l*99.1%
+-commutative99.1%
fma-define99.1%
Simplified99.1%
Final simplification99.1%
(FPCore (x)
:precision binary64
(*
(pow x 3.0)
(-
(*
(pow x 2.0)
(+ 0.008333333333333333 (* (pow x 2.0) -0.0001984126984126984)))
0.16666666666666666)))
double code(double x) {
return pow(x, 3.0) * ((pow(x, 2.0) * (0.008333333333333333 + (pow(x, 2.0) * -0.0001984126984126984))) - 0.16666666666666666);
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x ** 3.0d0) * (((x ** 2.0d0) * (0.008333333333333333d0 + ((x ** 2.0d0) * (-0.0001984126984126984d0)))) - 0.16666666666666666d0)
end function
public static double code(double x) {
return Math.pow(x, 3.0) * ((Math.pow(x, 2.0) * (0.008333333333333333 + (Math.pow(x, 2.0) * -0.0001984126984126984))) - 0.16666666666666666);
}
def code(x): return math.pow(x, 3.0) * ((math.pow(x, 2.0) * (0.008333333333333333 + (math.pow(x, 2.0) * -0.0001984126984126984))) - 0.16666666666666666)
function code(x) return Float64((x ^ 3.0) * Float64(Float64((x ^ 2.0) * Float64(0.008333333333333333 + Float64((x ^ 2.0) * -0.0001984126984126984))) - 0.16666666666666666)) end
function tmp = code(x) tmp = (x ^ 3.0) * (((x ^ 2.0) * (0.008333333333333333 + ((x ^ 2.0) * -0.0001984126984126984))) - 0.16666666666666666); end
code[x_] := N[(N[Power[x, 3.0], $MachinePrecision] * N[(N[(N[Power[x, 2.0], $MachinePrecision] * N[(0.008333333333333333 + N[(N[Power[x, 2.0], $MachinePrecision] * -0.0001984126984126984), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] - 0.16666666666666666), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
{x}^{3} \cdot \left({x}^{2} \cdot \left(0.008333333333333333 + {x}^{2} \cdot -0.0001984126984126984\right) - 0.16666666666666666\right)
\end{array}
Initial program 68.4%
Taylor expanded in x around 0 99.1%
Final simplification99.1%
(FPCore (x) :precision binary64 (+ (* (pow x 3.0) (* (pow x 2.0) 0.008333333333333333)) (* (pow x 3.0) -0.16666666666666666)))
double code(double x) {
return (pow(x, 3.0) * (pow(x, 2.0) * 0.008333333333333333)) + (pow(x, 3.0) * -0.16666666666666666);
}
real(8) function code(x)
real(8), intent (in) :: x
code = ((x ** 3.0d0) * ((x ** 2.0d0) * 0.008333333333333333d0)) + ((x ** 3.0d0) * (-0.16666666666666666d0))
end function
public static double code(double x) {
return (Math.pow(x, 3.0) * (Math.pow(x, 2.0) * 0.008333333333333333)) + (Math.pow(x, 3.0) * -0.16666666666666666);
}
def code(x): return (math.pow(x, 3.0) * (math.pow(x, 2.0) * 0.008333333333333333)) + (math.pow(x, 3.0) * -0.16666666666666666)
function code(x) return Float64(Float64((x ^ 3.0) * Float64((x ^ 2.0) * 0.008333333333333333)) + Float64((x ^ 3.0) * -0.16666666666666666)) end
function tmp = code(x) tmp = ((x ^ 3.0) * ((x ^ 2.0) * 0.008333333333333333)) + ((x ^ 3.0) * -0.16666666666666666); end
code[x_] := N[(N[(N[Power[x, 3.0], $MachinePrecision] * N[(N[Power[x, 2.0], $MachinePrecision] * 0.008333333333333333), $MachinePrecision]), $MachinePrecision] + N[(N[Power[x, 3.0], $MachinePrecision] * -0.16666666666666666), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
{x}^{3} \cdot \left({x}^{2} \cdot 0.008333333333333333\right) + {x}^{3} \cdot -0.16666666666666666
\end{array}
Initial program 68.4%
Taylor expanded in x around 0 98.9%
sub-neg98.9%
metadata-eval98.9%
distribute-lft-in98.9%
*-commutative98.9%
Applied egg-rr98.9%
Final simplification98.9%
(FPCore (x) :precision binary64 (* (pow x 3.0) (- (* (pow x 2.0) 0.008333333333333333) 0.16666666666666666)))
double code(double x) {
return pow(x, 3.0) * ((pow(x, 2.0) * 0.008333333333333333) - 0.16666666666666666);
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x ** 3.0d0) * (((x ** 2.0d0) * 0.008333333333333333d0) - 0.16666666666666666d0)
end function
public static double code(double x) {
return Math.pow(x, 3.0) * ((Math.pow(x, 2.0) * 0.008333333333333333) - 0.16666666666666666);
}
def code(x): return math.pow(x, 3.0) * ((math.pow(x, 2.0) * 0.008333333333333333) - 0.16666666666666666)
function code(x) return Float64((x ^ 3.0) * Float64(Float64((x ^ 2.0) * 0.008333333333333333) - 0.16666666666666666)) end
function tmp = code(x) tmp = (x ^ 3.0) * (((x ^ 2.0) * 0.008333333333333333) - 0.16666666666666666); end
code[x_] := N[(N[Power[x, 3.0], $MachinePrecision] * N[(N[(N[Power[x, 2.0], $MachinePrecision] * 0.008333333333333333), $MachinePrecision] - 0.16666666666666666), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
{x}^{3} \cdot \left({x}^{2} \cdot 0.008333333333333333 - 0.16666666666666666\right)
\end{array}
Initial program 68.4%
Taylor expanded in x around 0 98.9%
Final simplification98.9%
(FPCore (x) :precision binary64 (* (pow x 3.0) -0.16666666666666666))
double code(double x) {
return pow(x, 3.0) * -0.16666666666666666;
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x ** 3.0d0) * (-0.16666666666666666d0)
end function
public static double code(double x) {
return Math.pow(x, 3.0) * -0.16666666666666666;
}
def code(x): return math.pow(x, 3.0) * -0.16666666666666666
function code(x) return Float64((x ^ 3.0) * -0.16666666666666666) end
function tmp = code(x) tmp = (x ^ 3.0) * -0.16666666666666666; end
code[x_] := N[(N[Power[x, 3.0], $MachinePrecision] * -0.16666666666666666), $MachinePrecision]
\begin{array}{l}
\\
{x}^{3} \cdot -0.16666666666666666
\end{array}
Initial program 68.4%
Taylor expanded in x around 0 98.3%
Final simplification98.3%
(FPCore (x) :precision binary64 (- (sin x) x))
double code(double x) {
return sin(x) - x;
}
real(8) function code(x)
real(8), intent (in) :: x
code = sin(x) - x
end function
public static double code(double x) {
return Math.sin(x) - x;
}
def code(x): return math.sin(x) - x
function code(x) return Float64(sin(x) - x) end
function tmp = code(x) tmp = sin(x) - x; end
code[x_] := N[(N[Sin[x], $MachinePrecision] - x), $MachinePrecision]
\begin{array}{l}
\\
\sin x - x
\end{array}
Initial program 68.4%
Final simplification68.4%
(FPCore (x) :precision binary64 (- x))
double code(double x) {
return -x;
}
real(8) function code(x)
real(8), intent (in) :: x
code = -x
end function
public static double code(double x) {
return -x;
}
def code(x): return -x
function code(x) return Float64(-x) end
function tmp = code(x) tmp = -x; end
code[x_] := (-x)
\begin{array}{l}
\\
-x
\end{array}
Initial program 68.4%
Taylor expanded in x around inf 6.5%
neg-mul-16.5%
Simplified6.5%
Final simplification6.5%
(FPCore (x) :precision binary64 (if (< (fabs x) 0.07) (- (+ (- (/ (pow x 3.0) 6.0) (/ (pow x 5.0) 120.0)) (/ (pow x 7.0) 5040.0))) (- (sin x) x)))
double code(double x) {
double tmp;
if (fabs(x) < 0.07) {
tmp = -(((pow(x, 3.0) / 6.0) - (pow(x, 5.0) / 120.0)) + (pow(x, 7.0) / 5040.0));
} else {
tmp = sin(x) - x;
}
return tmp;
}
real(8) function code(x)
real(8), intent (in) :: x
real(8) :: tmp
if (abs(x) < 0.07d0) then
tmp = -((((x ** 3.0d0) / 6.0d0) - ((x ** 5.0d0) / 120.0d0)) + ((x ** 7.0d0) / 5040.0d0))
else
tmp = sin(x) - x
end if
code = tmp
end function
public static double code(double x) {
double tmp;
if (Math.abs(x) < 0.07) {
tmp = -(((Math.pow(x, 3.0) / 6.0) - (Math.pow(x, 5.0) / 120.0)) + (Math.pow(x, 7.0) / 5040.0));
} else {
tmp = Math.sin(x) - x;
}
return tmp;
}
def code(x): tmp = 0 if math.fabs(x) < 0.07: tmp = -(((math.pow(x, 3.0) / 6.0) - (math.pow(x, 5.0) / 120.0)) + (math.pow(x, 7.0) / 5040.0)) else: tmp = math.sin(x) - x return tmp
function code(x) tmp = 0.0 if (abs(x) < 0.07) tmp = Float64(-Float64(Float64(Float64((x ^ 3.0) / 6.0) - Float64((x ^ 5.0) / 120.0)) + Float64((x ^ 7.0) / 5040.0))); else tmp = Float64(sin(x) - x); end return tmp end
function tmp_2 = code(x) tmp = 0.0; if (abs(x) < 0.07) tmp = -((((x ^ 3.0) / 6.0) - ((x ^ 5.0) / 120.0)) + ((x ^ 7.0) / 5040.0)); else tmp = sin(x) - x; end tmp_2 = tmp; end
code[x_] := If[Less[N[Abs[x], $MachinePrecision], 0.07], (-N[(N[(N[(N[Power[x, 3.0], $MachinePrecision] / 6.0), $MachinePrecision] - N[(N[Power[x, 5.0], $MachinePrecision] / 120.0), $MachinePrecision]), $MachinePrecision] + N[(N[Power[x, 7.0], $MachinePrecision] / 5040.0), $MachinePrecision]), $MachinePrecision]), N[(N[Sin[x], $MachinePrecision] - x), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;\left|x\right| < 0.07:\\
\;\;\;\;-\left(\left(\frac{{x}^{3}}{6} - \frac{{x}^{5}}{120}\right) + \frac{{x}^{7}}{5040}\right)\\
\mathbf{else}:\\
\;\;\;\;\sin x - x\\
\end{array}
\end{array}
herbie shell --seed 2024100
(FPCore (x)
:name "bug500 (missed optimization)"
:precision binary64
:pre (and (< -1000.0 x) (< x 1000.0))
:alt
(if (< (fabs x) 0.07) (- (+ (- (/ (pow x 3.0) 6.0) (/ (pow x 5.0) 120.0)) (/ (pow x 7.0) 5040.0))) (- (sin x) x))
(- (sin x) x))