
(FPCore (x) :precision binary64 (/ (- x (sin x)) (tan x)))
double code(double x) {
return (x - sin(x)) / tan(x);
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x - sin(x)) / tan(x)
end function
public static double code(double x) {
return (x - Math.sin(x)) / Math.tan(x);
}
def code(x): return (x - math.sin(x)) / math.tan(x)
function code(x) return Float64(Float64(x - sin(x)) / tan(x)) end
function tmp = code(x) tmp = (x - sin(x)) / tan(x); end
code[x_] := N[(N[(x - N[Sin[x], $MachinePrecision]), $MachinePrecision] / N[Tan[x], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{x - \sin x}{\tan x}
\end{array}
Sampling outcomes in binary64 precision:
Herbie found 7 alternatives:
| Alternative | Accuracy | Speedup |
|---|
(FPCore (x) :precision binary64 (/ (- x (sin x)) (tan x)))
double code(double x) {
return (x - sin(x)) / tan(x);
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x - sin(x)) / tan(x)
end function
public static double code(double x) {
return (x - Math.sin(x)) / Math.tan(x);
}
def code(x): return (x - math.sin(x)) / math.tan(x)
function code(x) return Float64(Float64(x - sin(x)) / tan(x)) end
function tmp = code(x) tmp = (x - sin(x)) / tan(x); end
code[x_] := N[(N[(x - N[Sin[x], $MachinePrecision]), $MachinePrecision] / N[Tan[x], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{x - \sin x}{\tan x}
\end{array}
(FPCore (x)
:precision binary64
(let* ((t_0 (- (* -0.0007275132275132275 (* x x)) 0.06388888888888888)))
(*
(/
(* (fma (pow t_0 3.0) (pow x 6.0) 0.004629629629629629) x)
(-
(fma (pow t_0 2.0) (pow x 4.0) 0.027777777777777776)
(* (* t_0 x) (* 0.16666666666666666 x))))
x)))
double code(double x) {
double t_0 = (-0.0007275132275132275 * (x * x)) - 0.06388888888888888;
return ((fma(pow(t_0, 3.0), pow(x, 6.0), 0.004629629629629629) * x) / (fma(pow(t_0, 2.0), pow(x, 4.0), 0.027777777777777776) - ((t_0 * x) * (0.16666666666666666 * x)))) * x;
}
function code(x) t_0 = Float64(Float64(-0.0007275132275132275 * Float64(x * x)) - 0.06388888888888888) return Float64(Float64(Float64(fma((t_0 ^ 3.0), (x ^ 6.0), 0.004629629629629629) * x) / Float64(fma((t_0 ^ 2.0), (x ^ 4.0), 0.027777777777777776) - Float64(Float64(t_0 * x) * Float64(0.16666666666666666 * x)))) * x) end
code[x_] := Block[{t$95$0 = N[(N[(-0.0007275132275132275 * N[(x * x), $MachinePrecision]), $MachinePrecision] - 0.06388888888888888), $MachinePrecision]}, N[(N[(N[(N[(N[Power[t$95$0, 3.0], $MachinePrecision] * N[Power[x, 6.0], $MachinePrecision] + 0.004629629629629629), $MachinePrecision] * x), $MachinePrecision] / N[(N[(N[Power[t$95$0, 2.0], $MachinePrecision] * N[Power[x, 4.0], $MachinePrecision] + 0.027777777777777776), $MachinePrecision] - N[(N[(t$95$0 * x), $MachinePrecision] * N[(0.16666666666666666 * x), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] * x), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
t_0 := -0.0007275132275132275 \cdot \left(x \cdot x\right) - 0.06388888888888888\\
\frac{\mathsf{fma}\left({t\_0}^{3}, {x}^{6}, 0.004629629629629629\right) \cdot x}{\mathsf{fma}\left({t\_0}^{2}, {x}^{4}, 0.027777777777777776\right) - \left(t\_0 \cdot x\right) \cdot \left(0.16666666666666666 \cdot x\right)} \cdot x
\end{array}
\end{array}
Initial program 54.9%
Taylor expanded in x around 0
*-commutativeN/A
unpow2N/A
associate-*r*N/A
lower-*.f64N/A
lower-*.f64N/A
+-commutativeN/A
*-commutativeN/A
lower-fma.f64N/A
lower--.f64N/A
lower-*.f64N/A
unpow2N/A
lower-*.f64N/A
unpow2N/A
lower-*.f6499.6
Applied rewrites99.6%
Applied rewrites99.7%
(FPCore (x)
:precision binary64
(let* ((t_0
(*
(* (- (* (* x x) -0.0007275132275132275) 0.06388888888888888) x)
x)))
(*
(/
(* (- (pow t_0 2.0) 0.027777777777777776) x)
(- t_0 0.16666666666666666))
x)))
double code(double x) {
double t_0 = ((((x * x) * -0.0007275132275132275) - 0.06388888888888888) * x) * x;
return (((pow(t_0, 2.0) - 0.027777777777777776) * x) / (t_0 - 0.16666666666666666)) * x;
}
real(8) function code(x)
real(8), intent (in) :: x
real(8) :: t_0
t_0 = ((((x * x) * (-0.0007275132275132275d0)) - 0.06388888888888888d0) * x) * x
code = ((((t_0 ** 2.0d0) - 0.027777777777777776d0) * x) / (t_0 - 0.16666666666666666d0)) * x
end function
public static double code(double x) {
double t_0 = ((((x * x) * -0.0007275132275132275) - 0.06388888888888888) * x) * x;
return (((Math.pow(t_0, 2.0) - 0.027777777777777776) * x) / (t_0 - 0.16666666666666666)) * x;
}
def code(x): t_0 = ((((x * x) * -0.0007275132275132275) - 0.06388888888888888) * x) * x return (((math.pow(t_0, 2.0) - 0.027777777777777776) * x) / (t_0 - 0.16666666666666666)) * x
function code(x) t_0 = Float64(Float64(Float64(Float64(Float64(x * x) * -0.0007275132275132275) - 0.06388888888888888) * x) * x) return Float64(Float64(Float64(Float64((t_0 ^ 2.0) - 0.027777777777777776) * x) / Float64(t_0 - 0.16666666666666666)) * x) end
function tmp = code(x) t_0 = ((((x * x) * -0.0007275132275132275) - 0.06388888888888888) * x) * x; tmp = ((((t_0 ^ 2.0) - 0.027777777777777776) * x) / (t_0 - 0.16666666666666666)) * x; end
code[x_] := Block[{t$95$0 = N[(N[(N[(N[(N[(x * x), $MachinePrecision] * -0.0007275132275132275), $MachinePrecision] - 0.06388888888888888), $MachinePrecision] * x), $MachinePrecision] * x), $MachinePrecision]}, N[(N[(N[(N[(N[Power[t$95$0, 2.0], $MachinePrecision] - 0.027777777777777776), $MachinePrecision] * x), $MachinePrecision] / N[(t$95$0 - 0.16666666666666666), $MachinePrecision]), $MachinePrecision] * x), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
t_0 := \left(\left(\left(x \cdot x\right) \cdot -0.0007275132275132275 - 0.06388888888888888\right) \cdot x\right) \cdot x\\
\frac{\left({t\_0}^{2} - 0.027777777777777776\right) \cdot x}{t\_0 - 0.16666666666666666} \cdot x
\end{array}
\end{array}
Initial program 54.9%
Taylor expanded in x around 0
*-commutativeN/A
unpow2N/A
associate-*r*N/A
lower-*.f64N/A
lower-*.f64N/A
+-commutativeN/A
*-commutativeN/A
lower-fma.f64N/A
lower--.f64N/A
lower-*.f64N/A
unpow2N/A
lower-*.f64N/A
unpow2N/A
lower-*.f6499.6
Applied rewrites99.6%
Applied rewrites99.7%
Applied rewrites99.6%
(FPCore (x)
:precision binary64
(*
(fma
(-
(* (* (- (* -0.00023644179894179894 (* x x)) 0.0007275132275132275) x) x)
0.06388888888888888)
(* x x)
0.16666666666666666)
(* x x)))
double code(double x) {
return fma((((((-0.00023644179894179894 * (x * x)) - 0.0007275132275132275) * x) * x) - 0.06388888888888888), (x * x), 0.16666666666666666) * (x * x);
}
function code(x) return Float64(fma(Float64(Float64(Float64(Float64(Float64(-0.00023644179894179894 * Float64(x * x)) - 0.0007275132275132275) * x) * x) - 0.06388888888888888), Float64(x * x), 0.16666666666666666) * Float64(x * x)) end
code[x_] := N[(N[(N[(N[(N[(N[(N[(-0.00023644179894179894 * N[(x * x), $MachinePrecision]), $MachinePrecision] - 0.0007275132275132275), $MachinePrecision] * x), $MachinePrecision] * x), $MachinePrecision] - 0.06388888888888888), $MachinePrecision] * N[(x * x), $MachinePrecision] + 0.16666666666666666), $MachinePrecision] * N[(x * x), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\mathsf{fma}\left(\left(\left(-0.00023644179894179894 \cdot \left(x \cdot x\right) - 0.0007275132275132275\right) \cdot x\right) \cdot x - 0.06388888888888888, x \cdot x, 0.16666666666666666\right) \cdot \left(x \cdot x\right)
\end{array}
Initial program 54.9%
Taylor expanded in x around 0
+-commutativeN/A
distribute-lft-inN/A
*-commutativeN/A
associate-*r*N/A
lower-fma.f64N/A
Applied rewrites99.6%
Applied rewrites99.6%
Applied rewrites99.6%
(FPCore (x)
:precision binary64
(*
(*
(fma
(- (* -0.0007275132275132275 (* x x)) 0.06388888888888888)
(* x x)
0.16666666666666666)
x)
x))
double code(double x) {
return (fma(((-0.0007275132275132275 * (x * x)) - 0.06388888888888888), (x * x), 0.16666666666666666) * x) * x;
}
function code(x) return Float64(Float64(fma(Float64(Float64(-0.0007275132275132275 * Float64(x * x)) - 0.06388888888888888), Float64(x * x), 0.16666666666666666) * x) * x) end
code[x_] := N[(N[(N[(N[(N[(-0.0007275132275132275 * N[(x * x), $MachinePrecision]), $MachinePrecision] - 0.06388888888888888), $MachinePrecision] * N[(x * x), $MachinePrecision] + 0.16666666666666666), $MachinePrecision] * x), $MachinePrecision] * x), $MachinePrecision]
\begin{array}{l}
\\
\left(\mathsf{fma}\left(-0.0007275132275132275 \cdot \left(x \cdot x\right) - 0.06388888888888888, x \cdot x, 0.16666666666666666\right) \cdot x\right) \cdot x
\end{array}
Initial program 54.9%
Taylor expanded in x around 0
*-commutativeN/A
unpow2N/A
associate-*r*N/A
lower-*.f64N/A
lower-*.f64N/A
+-commutativeN/A
*-commutativeN/A
lower-fma.f64N/A
lower--.f64N/A
lower-*.f64N/A
unpow2N/A
lower-*.f64N/A
unpow2N/A
lower-*.f6499.6
Applied rewrites99.6%
(FPCore (x) :precision binary64 (* (* (fma -0.06388888888888888 (* x x) 0.16666666666666666) x) x))
double code(double x) {
return (fma(-0.06388888888888888, (x * x), 0.16666666666666666) * x) * x;
}
function code(x) return Float64(Float64(fma(-0.06388888888888888, Float64(x * x), 0.16666666666666666) * x) * x) end
code[x_] := N[(N[(N[(-0.06388888888888888 * N[(x * x), $MachinePrecision] + 0.16666666666666666), $MachinePrecision] * x), $MachinePrecision] * x), $MachinePrecision]
\begin{array}{l}
\\
\left(\mathsf{fma}\left(-0.06388888888888888, x \cdot x, 0.16666666666666666\right) \cdot x\right) \cdot x
\end{array}
Initial program 54.9%
Taylor expanded in x around 0
unpow2N/A
associate-*l*N/A
*-commutativeN/A
lower-*.f64N/A
*-commutativeN/A
lower-*.f64N/A
+-commutativeN/A
lower-fma.f64N/A
unpow2N/A
lower-*.f6499.5
Applied rewrites99.5%
(FPCore (x) :precision binary64 (* (* 0.16666666666666666 x) x))
double code(double x) {
return (0.16666666666666666 * x) * x;
}
real(8) function code(x)
real(8), intent (in) :: x
code = (0.16666666666666666d0 * x) * x
end function
public static double code(double x) {
return (0.16666666666666666 * x) * x;
}
def code(x): return (0.16666666666666666 * x) * x
function code(x) return Float64(Float64(0.16666666666666666 * x) * x) end
function tmp = code(x) tmp = (0.16666666666666666 * x) * x; end
code[x_] := N[(N[(0.16666666666666666 * x), $MachinePrecision] * x), $MachinePrecision]
\begin{array}{l}
\\
\left(0.16666666666666666 \cdot x\right) \cdot x
\end{array}
Initial program 54.9%
Taylor expanded in x around 0
*-commutativeN/A
unpow2N/A
associate-*r*N/A
lower-*.f64N/A
lower-*.f64N/A
+-commutativeN/A
*-commutativeN/A
lower-fma.f64N/A
lower--.f64N/A
lower-*.f64N/A
unpow2N/A
lower-*.f64N/A
unpow2N/A
lower-*.f6499.6
Applied rewrites99.6%
Taylor expanded in x around 0
Applied rewrites99.1%
(FPCore (x) :precision binary64 (* (* x x) 0.16666666666666666))
double code(double x) {
return (x * x) * 0.16666666666666666;
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x * x) * 0.16666666666666666d0
end function
public static double code(double x) {
return (x * x) * 0.16666666666666666;
}
def code(x): return (x * x) * 0.16666666666666666
function code(x) return Float64(Float64(x * x) * 0.16666666666666666) end
function tmp = code(x) tmp = (x * x) * 0.16666666666666666; end
code[x_] := N[(N[(x * x), $MachinePrecision] * 0.16666666666666666), $MachinePrecision]
\begin{array}{l}
\\
\left(x \cdot x\right) \cdot 0.16666666666666666
\end{array}
Initial program 54.9%
Taylor expanded in x around 0
*-commutativeN/A
lower-*.f64N/A
unpow2N/A
lower-*.f6499.1
Applied rewrites99.1%
(FPCore (x) :precision binary64 (* 0.16666666666666666 (* x x)))
double code(double x) {
return 0.16666666666666666 * (x * x);
}
real(8) function code(x)
real(8), intent (in) :: x
code = 0.16666666666666666d0 * (x * x)
end function
public static double code(double x) {
return 0.16666666666666666 * (x * x);
}
def code(x): return 0.16666666666666666 * (x * x)
function code(x) return Float64(0.16666666666666666 * Float64(x * x)) end
function tmp = code(x) tmp = 0.16666666666666666 * (x * x); end
code[x_] := N[(0.16666666666666666 * N[(x * x), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
0.16666666666666666 \cdot \left(x \cdot x\right)
\end{array}
herbie shell --seed 2024338
(FPCore (x)
:name "ENA, Section 1.4, Exercise 4a"
:precision binary64
:pre (and (<= -1.0 x) (<= x 1.0))
:alt
(! :herbie-platform default (* 1/6 (* x x)))
(/ (- x (sin x)) (tan x)))