
(FPCore (N) :precision binary64 (- (log (+ N 1.0)) (log N)))
double code(double N) {
return log((N + 1.0)) - log(N);
}
real(8) function code(n)
real(8), intent (in) :: n
code = log((n + 1.0d0)) - log(n)
end function
public static double code(double N) {
return Math.log((N + 1.0)) - Math.log(N);
}
def code(N): return math.log((N + 1.0)) - math.log(N)
function code(N) return Float64(log(Float64(N + 1.0)) - log(N)) end
function tmp = code(N) tmp = log((N + 1.0)) - log(N); end
code[N_] := N[(N[Log[N[(N + 1.0), $MachinePrecision]], $MachinePrecision] - N[Log[N], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\log \left(N + 1\right) - \log N
\end{array}
Sampling outcomes in binary64 precision:
Herbie found 11 alternatives:
| Alternative | Accuracy | Speedup |
|---|
(FPCore (N) :precision binary64 (- (log (+ N 1.0)) (log N)))
double code(double N) {
return log((N + 1.0)) - log(N);
}
real(8) function code(n)
real(8), intent (in) :: n
code = log((n + 1.0d0)) - log(n)
end function
public static double code(double N) {
return Math.log((N + 1.0)) - Math.log(N);
}
def code(N): return math.log((N + 1.0)) - math.log(N)
function code(N) return Float64(log(Float64(N + 1.0)) - log(N)) end
function tmp = code(N) tmp = log((N + 1.0)) - log(N); end
code[N_] := N[(N[Log[N[(N + 1.0), $MachinePrecision]], $MachinePrecision] - N[Log[N], $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\log \left(N + 1\right) - \log N
\end{array}
(FPCore (N)
:precision binary64
(if (<= (- (log (- N -1.0)) (log N)) 0.001)
(/
1.0
(-
N
(*
(/ (+ (/ (- 0.08333333333333333 (/ 0.041666666666666664 N)) N) -0.5) N)
N)))
(+ (log (/ (- N 1.0) N)) (log (/ (- -1.0 N) (- 1.0 N))))))
double code(double N) {
double tmp;
if ((log((N - -1.0)) - log(N)) <= 0.001) {
tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
} else {
tmp = log(((N - 1.0) / N)) + log(((-1.0 - N) / (1.0 - N)));
}
return tmp;
}
real(8) function code(n)
real(8), intent (in) :: n
real(8) :: tmp
if ((log((n - (-1.0d0))) - log(n)) <= 0.001d0) then
tmp = 1.0d0 / (n - (((((0.08333333333333333d0 - (0.041666666666666664d0 / n)) / n) + (-0.5d0)) / n) * n))
else
tmp = log(((n - 1.0d0) / n)) + log((((-1.0d0) - n) / (1.0d0 - n)))
end if
code = tmp
end function
public static double code(double N) {
double tmp;
if ((Math.log((N - -1.0)) - Math.log(N)) <= 0.001) {
tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
} else {
tmp = Math.log(((N - 1.0) / N)) + Math.log(((-1.0 - N) / (1.0 - N)));
}
return tmp;
}
def code(N): tmp = 0 if (math.log((N - -1.0)) - math.log(N)) <= 0.001: tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N)) else: tmp = math.log(((N - 1.0) / N)) + math.log(((-1.0 - N) / (1.0 - N))) return tmp
function code(N) tmp = 0.0 if (Float64(log(Float64(N - -1.0)) - log(N)) <= 0.001) tmp = Float64(1.0 / Float64(N - Float64(Float64(Float64(Float64(Float64(0.08333333333333333 - Float64(0.041666666666666664 / N)) / N) + -0.5) / N) * N))); else tmp = Float64(log(Float64(Float64(N - 1.0) / N)) + log(Float64(Float64(-1.0 - N) / Float64(1.0 - N)))); end return tmp end
function tmp_2 = code(N) tmp = 0.0; if ((log((N - -1.0)) - log(N)) <= 0.001) tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N)); else tmp = log(((N - 1.0) / N)) + log(((-1.0 - N) / (1.0 - N))); end tmp_2 = tmp; end
code[N_] := If[LessEqual[N[(N[Log[N[(N - -1.0), $MachinePrecision]], $MachinePrecision] - N[Log[N], $MachinePrecision]), $MachinePrecision], 0.001], N[(1.0 / N[(N - N[(N[(N[(N[(N[(0.08333333333333333 - N[(0.041666666666666664 / N), $MachinePrecision]), $MachinePrecision] / N), $MachinePrecision] + -0.5), $MachinePrecision] / N), $MachinePrecision] * N), $MachinePrecision]), $MachinePrecision]), $MachinePrecision], N[(N[Log[N[(N[(N - 1.0), $MachinePrecision] / N), $MachinePrecision]], $MachinePrecision] + N[Log[N[(N[(-1.0 - N), $MachinePrecision] / N[(1.0 - N), $MachinePrecision]), $MachinePrecision]], $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;\log \left(N - -1\right) - \log N \leq 0.001:\\
\;\;\;\;\frac{1}{N - \frac{\frac{0.08333333333333333 - \frac{0.041666666666666664}{N}}{N} + -0.5}{N} \cdot N}\\
\mathbf{else}:\\
\;\;\;\;\log \left(\frac{N - 1}{N}\right) + \log \left(\frac{-1 - N}{1 - N}\right)\\
\end{array}
\end{array}
if (-.f64 (log.f64 (+.f64 N #s(literal 1 binary64))) (log.f64 N)) < 1e-3Initial program 18.7%
Taylor expanded in N around inf
Applied rewrites99.6%
Applied rewrites99.7%
Taylor expanded in N around -inf
Applied rewrites99.6%
Applied rewrites99.8%
if 1e-3 < (-.f64 (log.f64 (+.f64 N #s(literal 1 binary64))) (log.f64 N)) Initial program 92.6%
lift--.f64N/A
lift-log.f64N/A
lift-log.f64N/A
diff-logN/A
lift-+.f64N/A
flip-+N/A
associate-/l/N/A
clear-numN/A
log-recN/A
lower-neg.f64N/A
lower-log.f64N/A
distribute-rgt-out--N/A
lower-/.f64N/A
distribute-rgt-out--N/A
*-commutativeN/A
lower-*.f64N/A
lower--.f64N/A
metadata-evalN/A
sub-negN/A
lower-fma.f64N/A
metadata-eval94.3
Applied rewrites94.3%
lift-neg.f64N/A
lift-log.f64N/A
neg-logN/A
lift-/.f64N/A
clear-numN/A
lift-fma.f64N/A
difference-of-sqr--1N/A
lift--.f64N/A
lift-*.f64N/A
times-fracN/A
log-prodN/A
lower-+.f64N/A
lower-log.f64N/A
lower-/.f64N/A
+-commutativeN/A
lower-+.f64N/A
lower-log.f64N/A
lower-/.f6495.3
Applied rewrites95.3%
Final simplification99.5%
(FPCore (N)
:precision binary64
(if (<= (- (log (- N -1.0)) (log N)) 0.001)
(/
1.0
(-
N
(*
(/ (+ (/ (- 0.08333333333333333 (/ 0.041666666666666664 N)) N) -0.5) N)
N)))
(- (log (/ N (- N -1.0))))))
double code(double N) {
double tmp;
if ((log((N - -1.0)) - log(N)) <= 0.001) {
tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
} else {
tmp = -log((N / (N - -1.0)));
}
return tmp;
}
real(8) function code(n)
real(8), intent (in) :: n
real(8) :: tmp
if ((log((n - (-1.0d0))) - log(n)) <= 0.001d0) then
tmp = 1.0d0 / (n - (((((0.08333333333333333d0 - (0.041666666666666664d0 / n)) / n) + (-0.5d0)) / n) * n))
else
tmp = -log((n / (n - (-1.0d0))))
end if
code = tmp
end function
public static double code(double N) {
double tmp;
if ((Math.log((N - -1.0)) - Math.log(N)) <= 0.001) {
tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
} else {
tmp = -Math.log((N / (N - -1.0)));
}
return tmp;
}
def code(N): tmp = 0 if (math.log((N - -1.0)) - math.log(N)) <= 0.001: tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N)) else: tmp = -math.log((N / (N - -1.0))) return tmp
function code(N) tmp = 0.0 if (Float64(log(Float64(N - -1.0)) - log(N)) <= 0.001) tmp = Float64(1.0 / Float64(N - Float64(Float64(Float64(Float64(Float64(0.08333333333333333 - Float64(0.041666666666666664 / N)) / N) + -0.5) / N) * N))); else tmp = Float64(-log(Float64(N / Float64(N - -1.0)))); end return tmp end
function tmp_2 = code(N) tmp = 0.0; if ((log((N - -1.0)) - log(N)) <= 0.001) tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N)); else tmp = -log((N / (N - -1.0))); end tmp_2 = tmp; end
code[N_] := If[LessEqual[N[(N[Log[N[(N - -1.0), $MachinePrecision]], $MachinePrecision] - N[Log[N], $MachinePrecision]), $MachinePrecision], 0.001], N[(1.0 / N[(N - N[(N[(N[(N[(N[(0.08333333333333333 - N[(0.041666666666666664 / N), $MachinePrecision]), $MachinePrecision] / N), $MachinePrecision] + -0.5), $MachinePrecision] / N), $MachinePrecision] * N), $MachinePrecision]), $MachinePrecision]), $MachinePrecision], (-N[Log[N[(N / N[(N - -1.0), $MachinePrecision]), $MachinePrecision]], $MachinePrecision])]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;\log \left(N - -1\right) - \log N \leq 0.001:\\
\;\;\;\;\frac{1}{N - \frac{\frac{0.08333333333333333 - \frac{0.041666666666666664}{N}}{N} + -0.5}{N} \cdot N}\\
\mathbf{else}:\\
\;\;\;\;-\log \left(\frac{N}{N - -1}\right)\\
\end{array}
\end{array}
if (-.f64 (log.f64 (+.f64 N #s(literal 1 binary64))) (log.f64 N)) < 1e-3Initial program 18.7%
Taylor expanded in N around inf
Applied rewrites99.6%
Applied rewrites99.7%
Taylor expanded in N around -inf
Applied rewrites99.6%
Applied rewrites99.8%
if 1e-3 < (-.f64 (log.f64 (+.f64 N #s(literal 1 binary64))) (log.f64 N)) Initial program 92.6%
lift--.f64N/A
lift-log.f64N/A
lift-log.f64N/A
diff-logN/A
clear-numN/A
clear-numN/A
log-recN/A
lower-neg.f64N/A
lower-log.f64N/A
lower-/.f64N/A
lower-/.f6495.3
lift-+.f64N/A
+-commutativeN/A
lower-+.f6495.3
Applied rewrites95.3%
Final simplification99.5%
(FPCore (N)
:precision binary64
(if (<= N 800.0)
(- (log (/ (* (- N 1.0) N) (fma N N -1.0))))
(/
1.0
(-
N
(*
(/ (+ (/ (- 0.08333333333333333 (/ 0.041666666666666664 N)) N) -0.5) N)
N)))))
double code(double N) {
double tmp;
if (N <= 800.0) {
tmp = -log((((N - 1.0) * N) / fma(N, N, -1.0)));
} else {
tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
}
return tmp;
}
function code(N) tmp = 0.0 if (N <= 800.0) tmp = Float64(-log(Float64(Float64(Float64(N - 1.0) * N) / fma(N, N, -1.0)))); else tmp = Float64(1.0 / Float64(N - Float64(Float64(Float64(Float64(Float64(0.08333333333333333 - Float64(0.041666666666666664 / N)) / N) + -0.5) / N) * N))); end return tmp end
code[N_] := If[LessEqual[N, 800.0], (-N[Log[N[(N[(N[(N - 1.0), $MachinePrecision] * N), $MachinePrecision] / N[(N * N + -1.0), $MachinePrecision]), $MachinePrecision]], $MachinePrecision]), N[(1.0 / N[(N - N[(N[(N[(N[(N[(0.08333333333333333 - N[(0.041666666666666664 / N), $MachinePrecision]), $MachinePrecision] / N), $MachinePrecision] + -0.5), $MachinePrecision] / N), $MachinePrecision] * N), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;N \leq 800:\\
\;\;\;\;-\log \left(\frac{\left(N - 1\right) \cdot N}{\mathsf{fma}\left(N, N, -1\right)}\right)\\
\mathbf{else}:\\
\;\;\;\;\frac{1}{N - \frac{\frac{0.08333333333333333 - \frac{0.041666666666666664}{N}}{N} + -0.5}{N} \cdot N}\\
\end{array}
\end{array}
if N < 800Initial program 92.6%
lift--.f64N/A
lift-log.f64N/A
lift-log.f64N/A
diff-logN/A
lift-+.f64N/A
flip-+N/A
associate-/l/N/A
clear-numN/A
log-recN/A
lower-neg.f64N/A
lower-log.f64N/A
distribute-rgt-out--N/A
lower-/.f64N/A
distribute-rgt-out--N/A
*-commutativeN/A
lower-*.f64N/A
lower--.f64N/A
metadata-evalN/A
sub-negN/A
lower-fma.f64N/A
metadata-eval94.3
Applied rewrites94.3%
if 800 < N Initial program 18.7%
Taylor expanded in N around inf
Applied rewrites99.6%
Applied rewrites99.7%
Taylor expanded in N around -inf
Applied rewrites99.6%
Applied rewrites99.8%
Final simplification99.4%
(FPCore (N)
:precision binary64
(if (<= N 850.0)
(log (/ (- N -1.0) N))
(/
1.0
(-
N
(*
(/ (+ (/ (- 0.08333333333333333 (/ 0.041666666666666664 N)) N) -0.5) N)
N)))))
double code(double N) {
double tmp;
if (N <= 850.0) {
tmp = log(((N - -1.0) / N));
} else {
tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
}
return tmp;
}
real(8) function code(n)
real(8), intent (in) :: n
real(8) :: tmp
if (n <= 850.0d0) then
tmp = log(((n - (-1.0d0)) / n))
else
tmp = 1.0d0 / (n - (((((0.08333333333333333d0 - (0.041666666666666664d0 / n)) / n) + (-0.5d0)) / n) * n))
end if
code = tmp
end function
public static double code(double N) {
double tmp;
if (N <= 850.0) {
tmp = Math.log(((N - -1.0) / N));
} else {
tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
}
return tmp;
}
def code(N): tmp = 0 if N <= 850.0: tmp = math.log(((N - -1.0) / N)) else: tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N)) return tmp
function code(N) tmp = 0.0 if (N <= 850.0) tmp = log(Float64(Float64(N - -1.0) / N)); else tmp = Float64(1.0 / Float64(N - Float64(Float64(Float64(Float64(Float64(0.08333333333333333 - Float64(0.041666666666666664 / N)) / N) + -0.5) / N) * N))); end return tmp end
function tmp_2 = code(N) tmp = 0.0; if (N <= 850.0) tmp = log(((N - -1.0) / N)); else tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N)); end tmp_2 = tmp; end
code[N_] := If[LessEqual[N, 850.0], N[Log[N[(N[(N - -1.0), $MachinePrecision] / N), $MachinePrecision]], $MachinePrecision], N[(1.0 / N[(N - N[(N[(N[(N[(N[(0.08333333333333333 - N[(0.041666666666666664 / N), $MachinePrecision]), $MachinePrecision] / N), $MachinePrecision] + -0.5), $MachinePrecision] / N), $MachinePrecision] * N), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]]
\begin{array}{l}
\\
\begin{array}{l}
\mathbf{if}\;N \leq 850:\\
\;\;\;\;\log \left(\frac{N - -1}{N}\right)\\
\mathbf{else}:\\
\;\;\;\;\frac{1}{N - \frac{\frac{0.08333333333333333 - \frac{0.041666666666666664}{N}}{N} + -0.5}{N} \cdot N}\\
\end{array}
\end{array}
if N < 850Initial program 92.6%
lift--.f64N/A
lift-log.f64N/A
lift-log.f64N/A
diff-logN/A
lower-log.f64N/A
lower-/.f6494.3
lift-+.f64N/A
+-commutativeN/A
lower-+.f6494.3
Applied rewrites94.3%
if 850 < N Initial program 18.7%
Taylor expanded in N around inf
Applied rewrites99.6%
Applied rewrites99.7%
Taylor expanded in N around -inf
Applied rewrites99.6%
Applied rewrites99.8%
Final simplification99.4%
(FPCore (N)
:precision binary64
(/
1.0
(-
N
(*
(/ (+ (/ (- 0.08333333333333333 (/ 0.041666666666666664 N)) N) -0.5) N)
N))))
double code(double N) {
return 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
}
real(8) function code(n)
real(8), intent (in) :: n
code = 1.0d0 / (n - (((((0.08333333333333333d0 - (0.041666666666666664d0 / n)) / n) + (-0.5d0)) / n) * n))
end function
public static double code(double N) {
return 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N));
}
def code(N): return 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N))
function code(N) return Float64(1.0 / Float64(N - Float64(Float64(Float64(Float64(Float64(0.08333333333333333 - Float64(0.041666666666666664 / N)) / N) + -0.5) / N) * N))) end
function tmp = code(N) tmp = 1.0 / (N - (((((0.08333333333333333 - (0.041666666666666664 / N)) / N) + -0.5) / N) * N)); end
code[N_] := N[(1.0 / N[(N - N[(N[(N[(N[(N[(0.08333333333333333 - N[(0.041666666666666664 / N), $MachinePrecision]), $MachinePrecision] / N), $MachinePrecision] + -0.5), $MachinePrecision] / N), $MachinePrecision] * N), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{1}{N - \frac{\frac{0.08333333333333333 - \frac{0.041666666666666664}{N}}{N} + -0.5}{N} \cdot N}
\end{array}
Initial program 23.4%
Taylor expanded in N around inf
Applied rewrites96.5%
Applied rewrites96.6%
Taylor expanded in N around -inf
Applied rewrites96.9%
Applied rewrites97.0%
Final simplification97.0%
(FPCore (N)
:precision binary64
(/
1.0
(*
(-
(/ (- 0.5 (/ (- 0.08333333333333333 (/ 0.041666666666666664 N)) N)) N)
-1.0)
N)))
double code(double N) {
return 1.0 / ((((0.5 - ((0.08333333333333333 - (0.041666666666666664 / N)) / N)) / N) - -1.0) * N);
}
real(8) function code(n)
real(8), intent (in) :: n
code = 1.0d0 / ((((0.5d0 - ((0.08333333333333333d0 - (0.041666666666666664d0 / n)) / n)) / n) - (-1.0d0)) * n)
end function
public static double code(double N) {
return 1.0 / ((((0.5 - ((0.08333333333333333 - (0.041666666666666664 / N)) / N)) / N) - -1.0) * N);
}
def code(N): return 1.0 / ((((0.5 - ((0.08333333333333333 - (0.041666666666666664 / N)) / N)) / N) - -1.0) * N)
function code(N) return Float64(1.0 / Float64(Float64(Float64(Float64(0.5 - Float64(Float64(0.08333333333333333 - Float64(0.041666666666666664 / N)) / N)) / N) - -1.0) * N)) end
function tmp = code(N) tmp = 1.0 / ((((0.5 - ((0.08333333333333333 - (0.041666666666666664 / N)) / N)) / N) - -1.0) * N); end
code[N_] := N[(1.0 / N[(N[(N[(N[(0.5 - N[(N[(0.08333333333333333 - N[(0.041666666666666664 / N), $MachinePrecision]), $MachinePrecision] / N), $MachinePrecision]), $MachinePrecision] / N), $MachinePrecision] - -1.0), $MachinePrecision] * N), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{1}{\left(\frac{0.5 - \frac{0.08333333333333333 - \frac{0.041666666666666664}{N}}{N}}{N} - -1\right) \cdot N}
\end{array}
Initial program 23.4%
Taylor expanded in N around inf
Applied rewrites96.5%
Applied rewrites96.6%
Taylor expanded in N around -inf
Applied rewrites96.9%
Final simplification96.9%
(FPCore (N) :precision binary64 (/ 1.0 (/ (/ (fma (fma (+ 0.5 N) N -0.08333333333333333) N 0.041666666666666664) N) N)))
double code(double N) {
return 1.0 / ((fma(fma((0.5 + N), N, -0.08333333333333333), N, 0.041666666666666664) / N) / N);
}
function code(N) return Float64(1.0 / Float64(Float64(fma(fma(Float64(0.5 + N), N, -0.08333333333333333), N, 0.041666666666666664) / N) / N)) end
code[N_] := N[(1.0 / N[(N[(N[(N[(N[(0.5 + N), $MachinePrecision] * N + -0.08333333333333333), $MachinePrecision] * N + 0.041666666666666664), $MachinePrecision] / N), $MachinePrecision] / N), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{1}{\frac{\frac{\mathsf{fma}\left(\mathsf{fma}\left(0.5 + N, N, -0.08333333333333333\right), N, 0.041666666666666664\right)}{N}}{N}}
\end{array}
Initial program 23.4%
Taylor expanded in N around inf
Applied rewrites96.5%
Applied rewrites96.6%
Taylor expanded in N around -inf
Applied rewrites96.9%
Taylor expanded in N around 0
Applied rewrites96.8%
(FPCore (N) :precision binary64 (/ 1.0 (* (- (/ (- 0.5 (/ 0.08333333333333333 N)) N) -1.0) N)))
double code(double N) {
return 1.0 / ((((0.5 - (0.08333333333333333 / N)) / N) - -1.0) * N);
}
real(8) function code(n)
real(8), intent (in) :: n
code = 1.0d0 / ((((0.5d0 - (0.08333333333333333d0 / n)) / n) - (-1.0d0)) * n)
end function
public static double code(double N) {
return 1.0 / ((((0.5 - (0.08333333333333333 / N)) / N) - -1.0) * N);
}
def code(N): return 1.0 / ((((0.5 - (0.08333333333333333 / N)) / N) - -1.0) * N)
function code(N) return Float64(1.0 / Float64(Float64(Float64(Float64(0.5 - Float64(0.08333333333333333 / N)) / N) - -1.0) * N)) end
function tmp = code(N) tmp = 1.0 / ((((0.5 - (0.08333333333333333 / N)) / N) - -1.0) * N); end
code[N_] := N[(1.0 / N[(N[(N[(N[(0.5 - N[(0.08333333333333333 / N), $MachinePrecision]), $MachinePrecision] / N), $MachinePrecision] - -1.0), $MachinePrecision] * N), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{1}{\left(\frac{0.5 - \frac{0.08333333333333333}{N}}{N} - -1\right) \cdot N}
\end{array}
Initial program 23.4%
Taylor expanded in N around inf
Applied rewrites96.5%
Applied rewrites96.6%
Taylor expanded in N around inf
Applied rewrites95.7%
Final simplification95.7%
(FPCore (N) :precision binary64 (/ (- (/ (- (/ 0.3333333333333333 N) 0.5) N) -1.0) N))
double code(double N) {
return ((((0.3333333333333333 / N) - 0.5) / N) - -1.0) / N;
}
real(8) function code(n)
real(8), intent (in) :: n
code = ((((0.3333333333333333d0 / n) - 0.5d0) / n) - (-1.0d0)) / n
end function
public static double code(double N) {
return ((((0.3333333333333333 / N) - 0.5) / N) - -1.0) / N;
}
def code(N): return ((((0.3333333333333333 / N) - 0.5) / N) - -1.0) / N
function code(N) return Float64(Float64(Float64(Float64(Float64(0.3333333333333333 / N) - 0.5) / N) - -1.0) / N) end
function tmp = code(N) tmp = ((((0.3333333333333333 / N) - 0.5) / N) - -1.0) / N; end
code[N_] := N[(N[(N[(N[(N[(0.3333333333333333 / N), $MachinePrecision] - 0.5), $MachinePrecision] / N), $MachinePrecision] - -1.0), $MachinePrecision] / N), $MachinePrecision]
\begin{array}{l}
\\
\frac{\frac{\frac{0.3333333333333333}{N} - 0.5}{N} - -1}{N}
\end{array}
Initial program 23.4%
Taylor expanded in N around inf
lower-/.f64N/A
associate--l+N/A
+-commutativeN/A
unpow2N/A
associate-/r*N/A
metadata-evalN/A
associate-*r/N/A
associate-*r/N/A
metadata-evalN/A
div-subN/A
metadata-evalN/A
sub-negN/A
lower--.f64N/A
lower-/.f64N/A
lower--.f64N/A
associate-*r/N/A
metadata-evalN/A
lower-/.f6495.3
Applied rewrites95.3%
(FPCore (N) :precision binary64 (/ 1.0 (+ 0.5 N)))
double code(double N) {
return 1.0 / (0.5 + N);
}
real(8) function code(n)
real(8), intent (in) :: n
code = 1.0d0 / (0.5d0 + n)
end function
public static double code(double N) {
return 1.0 / (0.5 + N);
}
def code(N): return 1.0 / (0.5 + N)
function code(N) return Float64(1.0 / Float64(0.5 + N)) end
function tmp = code(N) tmp = 1.0 / (0.5 + N); end
code[N_] := N[(1.0 / N[(0.5 + N), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\frac{1}{0.5 + N}
\end{array}
Initial program 23.4%
Taylor expanded in N around inf
Applied rewrites96.5%
Applied rewrites96.6%
Taylor expanded in N around inf
Applied rewrites93.6%
(FPCore (N) :precision binary64 (/ 1.0 N))
double code(double N) {
return 1.0 / N;
}
real(8) function code(n)
real(8), intent (in) :: n
code = 1.0d0 / n
end function
public static double code(double N) {
return 1.0 / N;
}
def code(N): return 1.0 / N
function code(N) return Float64(1.0 / N) end
function tmp = code(N) tmp = 1.0 / N; end
code[N_] := N[(1.0 / N), $MachinePrecision]
\begin{array}{l}
\\
\frac{1}{N}
\end{array}
Initial program 23.4%
Taylor expanded in N around inf
lower-/.f6484.8
Applied rewrites84.8%
(FPCore (N) :precision binary64 (+ (+ (+ (/ 1.0 N) (/ -1.0 (* 2.0 (pow N 2.0)))) (/ 1.0 (* 3.0 (pow N 3.0)))) (/ -1.0 (* 4.0 (pow N 4.0)))))
double code(double N) {
return (((1.0 / N) + (-1.0 / (2.0 * pow(N, 2.0)))) + (1.0 / (3.0 * pow(N, 3.0)))) + (-1.0 / (4.0 * pow(N, 4.0)));
}
real(8) function code(n)
real(8), intent (in) :: n
code = (((1.0d0 / n) + ((-1.0d0) / (2.0d0 * (n ** 2.0d0)))) + (1.0d0 / (3.0d0 * (n ** 3.0d0)))) + ((-1.0d0) / (4.0d0 * (n ** 4.0d0)))
end function
public static double code(double N) {
return (((1.0 / N) + (-1.0 / (2.0 * Math.pow(N, 2.0)))) + (1.0 / (3.0 * Math.pow(N, 3.0)))) + (-1.0 / (4.0 * Math.pow(N, 4.0)));
}
def code(N): return (((1.0 / N) + (-1.0 / (2.0 * math.pow(N, 2.0)))) + (1.0 / (3.0 * math.pow(N, 3.0)))) + (-1.0 / (4.0 * math.pow(N, 4.0)))
function code(N) return Float64(Float64(Float64(Float64(1.0 / N) + Float64(-1.0 / Float64(2.0 * (N ^ 2.0)))) + Float64(1.0 / Float64(3.0 * (N ^ 3.0)))) + Float64(-1.0 / Float64(4.0 * (N ^ 4.0)))) end
function tmp = code(N) tmp = (((1.0 / N) + (-1.0 / (2.0 * (N ^ 2.0)))) + (1.0 / (3.0 * (N ^ 3.0)))) + (-1.0 / (4.0 * (N ^ 4.0))); end
code[N_] := N[(N[(N[(N[(1.0 / N), $MachinePrecision] + N[(-1.0 / N[(2.0 * N[Power[N, 2.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] + N[(1.0 / N[(3.0 * N[Power[N, 3.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision] + N[(-1.0 / N[(4.0 * N[Power[N, 4.0], $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}
\\
\left(\left(\frac{1}{N} + \frac{-1}{2 \cdot {N}^{2}}\right) + \frac{1}{3 \cdot {N}^{3}}\right) + \frac{-1}{4 \cdot {N}^{4}}
\end{array}
herbie shell --seed 2024332
(FPCore (N)
:name "2log (problem 3.3.6)"
:precision binary64
:pre (and (> N 1.0) (< N 1e+40))
:alt
(! :herbie-platform default (+ (/ 1 N) (/ -1 (* 2 (pow N 2))) (/ 1 (* 3 (pow N 3))) (/ -1 (* 4 (pow N 4)))))
(- (log (+ N 1.0)) (log N)))