| Alternative 1 | |
|---|---|
| Accuracy | 99.3% |
| Cost | 7040 |
\[x \cdot \left(x \cdot 0.16666666666666666\right) + -0.06388888888888888 \cdot {x}^{4}
\]

(FPCore (x) :precision binary64 (/ (- x (sin x)) (tan x)))
(FPCore (x) :precision binary64 (+ (* x (* x 0.16666666666666666)) (+ (* -0.0007275132275132275 (pow x 6.0)) (* -0.06388888888888888 (pow x 4.0)))))
double code(double x) {
return (x - sin(x)) / tan(x);
}
double code(double x) {
return (x * (x * 0.16666666666666666)) + ((-0.0007275132275132275 * pow(x, 6.0)) + (-0.06388888888888888 * pow(x, 4.0)));
}
real(8) function code(x)
real(8), intent (in) :: x
code = (x - sin(x)) / tan(x)
end function
real(8) function code(x)
real(8), intent (in) :: x
code = (x * (x * 0.16666666666666666d0)) + (((-0.0007275132275132275d0) * (x ** 6.0d0)) + ((-0.06388888888888888d0) * (x ** 4.0d0)))
end function
public static double code(double x) {
return (x - Math.sin(x)) / Math.tan(x);
}
public static double code(double x) {
return (x * (x * 0.16666666666666666)) + ((-0.0007275132275132275 * Math.pow(x, 6.0)) + (-0.06388888888888888 * Math.pow(x, 4.0)));
}
def code(x): return (x - math.sin(x)) / math.tan(x)
def code(x): return (x * (x * 0.16666666666666666)) + ((-0.0007275132275132275 * math.pow(x, 6.0)) + (-0.06388888888888888 * math.pow(x, 4.0)))
function code(x) return Float64(Float64(x - sin(x)) / tan(x)) end
function code(x) return Float64(Float64(x * Float64(x * 0.16666666666666666)) + Float64(Float64(-0.0007275132275132275 * (x ^ 6.0)) + Float64(-0.06388888888888888 * (x ^ 4.0)))) end
function tmp = code(x) tmp = (x - sin(x)) / tan(x); end
function tmp = code(x) tmp = (x * (x * 0.16666666666666666)) + ((-0.0007275132275132275 * (x ^ 6.0)) + (-0.06388888888888888 * (x ^ 4.0))); end
code[x_] := N[(N[(x - N[Sin[x], $MachinePrecision]), $MachinePrecision] / N[Tan[x], $MachinePrecision]), $MachinePrecision]
code[x_] := N[(N[(x * N[(x * 0.16666666666666666), $MachinePrecision]), $MachinePrecision] + N[(N[(-0.0007275132275132275 * N[Power[x, 6.0], $MachinePrecision]), $MachinePrecision] + N[(-0.06388888888888888 * N[Power[x, 4.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\frac{x - \sin x}{\tan x}
x \cdot \left(x \cdot 0.16666666666666666\right) + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
Results
| Original | 53.1% |
|---|---|
| Target | 98.5% |
| Herbie | 99.5% |
Initial program 53.1%
Taylor expanded in x around 0 99.5%
Applied egg-rr99.5%
[Start]99.5 | \[ 0.16666666666666666 \cdot {x}^{2} + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
|---|---|
add-log-exp [=>]52.6 | \[ \color{blue}{\log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)} + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
*-un-lft-identity [=>]52.6 | \[ \log \color{blue}{\left(1 \cdot e^{0.16666666666666666 \cdot {x}^{2}}\right)} + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
log-prod [=>]52.6 | \[ \color{blue}{\left(\log 1 + \log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)\right)} + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
metadata-eval [=>]52.6 | \[ \left(\color{blue}{0} + \log \left(e^{0.16666666666666666 \cdot {x}^{2}}\right)\right) + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
add-log-exp [<=]99.5 | \[ \left(0 + \color{blue}{0.16666666666666666 \cdot {x}^{2}}\right) + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
unpow2 [=>]99.5 | \[ \left(0 + 0.16666666666666666 \cdot \color{blue}{\left(x \cdot x\right)}\right) + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
Simplified99.5%
[Start]99.5 | \[ \left(0 + 0.16666666666666666 \cdot \left(x \cdot x\right)\right) + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
|---|---|
+-lft-identity [=>]99.5 | \[ \color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
*-commutative [=>]99.5 | \[ \color{blue}{\left(x \cdot x\right) \cdot 0.16666666666666666} + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
associate-*l* [=>]99.5 | \[ \color{blue}{x \cdot \left(x \cdot 0.16666666666666666\right)} + \left(-0.0007275132275132275 \cdot {x}^{6} + -0.06388888888888888 \cdot {x}^{4}\right)
\] |
Final simplification99.5%
| Alternative 1 | |
|---|---|
| Accuracy | 99.3% |
| Cost | 7040 |
| Alternative 2 | |
|---|---|
| Accuracy | 99.3% |
| Cost | 6976 |
| Alternative 3 | |
|---|---|
| Accuracy | 98.6% |
| Cost | 6848 |
| Alternative 4 | |
|---|---|
| Accuracy | 98.5% |
| Cost | 320 |
| Alternative 5 | |
|---|---|
| Accuracy | 98.5% |
| Cost | 320 |
herbie shell --seed 2023160
(FPCore (x)
:name "ENA, Section 1.4, Exercise 4a"
:precision binary64
:pre (and (<= -1.0 x) (<= x 1.0))
:herbie-target
(* 0.16666666666666666 (* x x))
(/ (- x (sin x)) (tan x)))