bug500, discussion (missed optimization)

Percentage Accurate: 51.6% → 97.2%
Time: 13.1s
Alternatives: 5
Speedup: 40.6×

Specification

?
\[\begin{array}{l} \\ \log \left(\frac{\sinh x}{x}\right) \end{array} \]
(FPCore (x) :precision binary64 (log (/ (sinh x) x)))
double code(double x) {
	return log((sinh(x) / x));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = log((sinh(x) / x))
end function
public static double code(double x) {
	return Math.log((Math.sinh(x) / x));
}
def code(x):
	return math.log((math.sinh(x) / x))
function code(x)
	return log(Float64(sinh(x) / x))
end
function tmp = code(x)
	tmp = log((sinh(x) / x));
end
code[x_] := N[Log[N[(N[Sinh[x], $MachinePrecision] / x), $MachinePrecision]], $MachinePrecision]
\begin{array}{l}

\\
\log \left(\frac{\sinh x}{x}\right)
\end{array}

Sampling outcomes in binary64 precision:

Local Percentage Accuracy vs ?

The average percentage accuracy by input value. Horizontal axis shows value of an input variable; the variable is choosen in the title. Vertical axis is accuracy; higher is better. Red represent the original program, while blue represents Herbie's suggestion. These can be toggled with buttons below the plot. The line is an average while dots represent individual samples.

Accuracy vs Speed?

Herbie found 5 alternatives:

AlternativeAccuracySpeedup
The accuracy (vertical axis) and speed (horizontal axis) of each alternatives. Up and to the right is better. The red square shows the initial program, and each blue circle shows an alternative.The line shows the best available speed-accuracy tradeoffs.

Initial Program: 51.6% accurate, 1.0× speedup?

\[\begin{array}{l} \\ \log \left(\frac{\sinh x}{x}\right) \end{array} \]
(FPCore (x) :precision binary64 (log (/ (sinh x) x)))
double code(double x) {
	return log((sinh(x) / x));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = log((sinh(x) / x))
end function
public static double code(double x) {
	return Math.log((Math.sinh(x) / x));
}
def code(x):
	return math.log((math.sinh(x) / x))
function code(x)
	return log(Float64(sinh(x) / x))
end
function tmp = code(x)
	tmp = log((sinh(x) / x));
end
code[x_] := N[Log[N[(N[Sinh[x], $MachinePrecision] / x), $MachinePrecision]], $MachinePrecision]
\begin{array}{l}

\\
\log \left(\frac{\sinh x}{x}\right)
\end{array}

Alternative 1: 97.2% accurate, 1.7× speedup?

\[\begin{array}{l} \\ \mathsf{log1p}\left(\left(x \cdot x\right) \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot \left(0.008333333333333333 + \left(x \cdot x\right) \cdot 0.0001984126984126984\right)\right)\right) \end{array} \]
(FPCore (x)
 :precision binary64
 (log1p
  (*
   (* x x)
   (+
    0.16666666666666666
    (* (* x x) (+ 0.008333333333333333 (* (* x x) 0.0001984126984126984)))))))
double code(double x) {
	return log1p(((x * x) * (0.16666666666666666 + ((x * x) * (0.008333333333333333 + ((x * x) * 0.0001984126984126984))))));
}
public static double code(double x) {
	return Math.log1p(((x * x) * (0.16666666666666666 + ((x * x) * (0.008333333333333333 + ((x * x) * 0.0001984126984126984))))));
}
def code(x):
	return math.log1p(((x * x) * (0.16666666666666666 + ((x * x) * (0.008333333333333333 + ((x * x) * 0.0001984126984126984))))))
function code(x)
	return log1p(Float64(Float64(x * x) * Float64(0.16666666666666666 + Float64(Float64(x * x) * Float64(0.008333333333333333 + Float64(Float64(x * x) * 0.0001984126984126984))))))
end
code[x_] := N[Log[1 + N[(N[(x * x), $MachinePrecision] * N[(0.16666666666666666 + N[(N[(x * x), $MachinePrecision] * N[(0.008333333333333333 + N[(N[(x * x), $MachinePrecision] * 0.0001984126984126984), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]], $MachinePrecision]
\begin{array}{l}

\\
\mathsf{log1p}\left(\left(x \cdot x\right) \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot \left(0.008333333333333333 + \left(x \cdot x\right) \cdot 0.0001984126984126984\right)\right)\right)
\end{array}
Derivation
  1. Initial program 54.3%

    \[\log \left(\frac{\sinh x}{x}\right) \]
  2. Add Preprocessing
  3. Taylor expanded in x around 0

    \[\leadsto \mathsf{log.f64}\left(\color{blue}{\left(1 + {x}^{2} \cdot \left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)}\right) \]
  4. Step-by-step derivation
    1. +-lowering-+.f64N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \left({x}^{2} \cdot \left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right) \]
    2. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\left({x}^{2}\right), \left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right) \]
    3. unpow2N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\left(x \cdot x\right), \left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right) \]
    4. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right) \]
    5. +-lowering-+.f64N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \left({x}^{2} \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right)\right) \]
    6. unpow2N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \left(\left(x \cdot x\right) \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right)\right) \]
    7. associate-*l*N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \left(x \cdot \left(x \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right)\right)\right) \]
    8. *-commutativeN/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \left(x \cdot \left(\left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right) \cdot x\right)\right)\right)\right)\right)\right) \]
    9. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \left(\left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right) \cdot x\right)\right)\right)\right)\right)\right) \]
    10. *-commutativeN/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \left(x \cdot \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right)\right)\right) \]
    11. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \left(\frac{1}{120} + \frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right)\right)\right) \]
    12. +-lowering-+.f64N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{120}, \left(\frac{1}{5040} \cdot {x}^{2}\right)\right)\right)\right)\right)\right)\right)\right) \]
    13. *-commutativeN/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{120}, \left({x}^{2} \cdot \frac{1}{5040}\right)\right)\right)\right)\right)\right)\right)\right) \]
    14. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{120}, \mathsf{*.f64}\left(\left({x}^{2}\right), \frac{1}{5040}\right)\right)\right)\right)\right)\right)\right)\right) \]
    15. unpow2N/A

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{120}, \mathsf{*.f64}\left(\left(x \cdot x\right), \frac{1}{5040}\right)\right)\right)\right)\right)\right)\right)\right) \]
    16. *-lowering-*.f6453.8%

      \[\leadsto \mathsf{log.f64}\left(\mathsf{+.f64}\left(1, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{120}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \frac{1}{5040}\right)\right)\right)\right)\right)\right)\right)\right) \]
  5. Simplified53.8%

    \[\leadsto \log \color{blue}{\left(1 + \left(x \cdot x\right) \cdot \left(0.16666666666666666 + x \cdot \left(x \cdot \left(0.008333333333333333 + \left(x \cdot x\right) \cdot 0.0001984126984126984\right)\right)\right)\right)} \]
  6. Step-by-step derivation
    1. log1p-defineN/A

      \[\leadsto \mathsf{log1p}\left(\left(x \cdot x\right) \cdot \left(\frac{1}{6} + x \cdot \left(x \cdot \left(\frac{1}{120} + \left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right) \]
    2. log1p-lowering-log1p.f64N/A

      \[\leadsto \mathsf{log1p.f64}\left(\left(\left(x \cdot x\right) \cdot \left(\frac{1}{6} + x \cdot \left(x \cdot \left(\frac{1}{120} + \left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right)\right) \]
    3. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\left(x \cdot x\right), \left(\frac{1}{6} + x \cdot \left(x \cdot \left(\frac{1}{120} + \left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right)\right) \]
    4. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \left(\frac{1}{6} + x \cdot \left(x \cdot \left(\frac{1}{120} + \left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right)\right) \]
    5. +-lowering-+.f64N/A

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \left(x \cdot \left(x \cdot \left(\frac{1}{120} + \left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right)\right)\right) \]
    6. associate-*r*N/A

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \left(\left(x \cdot x\right) \cdot \left(\frac{1}{120} + \left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right)\right) \]
    7. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\left(x \cdot x\right), \left(\frac{1}{120} + \left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right)\right) \]
    8. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \left(\frac{1}{120} + \left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right)\right) \]
    9. +-lowering-+.f64N/A

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{120}, \left(\left(x \cdot x\right) \cdot \frac{1}{5040}\right)\right)\right)\right)\right)\right) \]
    10. *-lowering-*.f64N/A

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{120}, \mathsf{*.f64}\left(\left(x \cdot x\right), \frac{1}{5040}\right)\right)\right)\right)\right)\right) \]
    11. *-lowering-*.f6496.9%

      \[\leadsto \mathsf{log1p.f64}\left(\mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{1}{120}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \frac{1}{5040}\right)\right)\right)\right)\right)\right) \]
  7. Applied egg-rr96.9%

    \[\leadsto \color{blue}{\mathsf{log1p}\left(\left(x \cdot x\right) \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot \left(0.008333333333333333 + \left(x \cdot x\right) \cdot 0.0001984126984126984\right)\right)\right)} \]
  8. Add Preprocessing

Alternative 2: 97.1% accurate, 11.9× speedup?

\[\begin{array}{l} \\ x \cdot \left(x \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot \left(-0.005555555555555556 + x \cdot \left(x \cdot 0.0003527336860670194\right)\right)\right)\right) \end{array} \]
(FPCore (x)
 :precision binary64
 (*
  x
  (*
   x
   (+
    0.16666666666666666
    (* (* x x) (+ -0.005555555555555556 (* x (* x 0.0003527336860670194))))))))
double code(double x) {
	return x * (x * (0.16666666666666666 + ((x * x) * (-0.005555555555555556 + (x * (x * 0.0003527336860670194))))));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = x * (x * (0.16666666666666666d0 + ((x * x) * ((-0.005555555555555556d0) + (x * (x * 0.0003527336860670194d0))))))
end function
public static double code(double x) {
	return x * (x * (0.16666666666666666 + ((x * x) * (-0.005555555555555556 + (x * (x * 0.0003527336860670194))))));
}
def code(x):
	return x * (x * (0.16666666666666666 + ((x * x) * (-0.005555555555555556 + (x * (x * 0.0003527336860670194))))))
function code(x)
	return Float64(x * Float64(x * Float64(0.16666666666666666 + Float64(Float64(x * x) * Float64(-0.005555555555555556 + Float64(x * Float64(x * 0.0003527336860670194)))))))
end
function tmp = code(x)
	tmp = x * (x * (0.16666666666666666 + ((x * x) * (-0.005555555555555556 + (x * (x * 0.0003527336860670194))))));
end
code[x_] := N[(x * N[(x * N[(0.16666666666666666 + N[(N[(x * x), $MachinePrecision] * N[(-0.005555555555555556 + N[(x * N[(x * 0.0003527336860670194), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
x \cdot \left(x \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot \left(-0.005555555555555556 + x \cdot \left(x \cdot 0.0003527336860670194\right)\right)\right)\right)
\end{array}
Derivation
  1. Initial program 54.3%

    \[\log \left(\frac{\sinh x}{x}\right) \]
  2. Add Preprocessing
  3. Taylor expanded in x around 0

    \[\leadsto \color{blue}{{x}^{2} \cdot \left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{2835} \cdot {x}^{2} - \frac{1}{180}\right)\right)} \]
  4. Step-by-step derivation
    1. unpow2N/A

      \[\leadsto \left(x \cdot x\right) \cdot \left(\color{blue}{\frac{1}{6}} + {x}^{2} \cdot \left(\frac{1}{2835} \cdot {x}^{2} - \frac{1}{180}\right)\right) \]
    2. associate-*l*N/A

      \[\leadsto x \cdot \color{blue}{\left(x \cdot \left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{2835} \cdot {x}^{2} - \frac{1}{180}\right)\right)\right)} \]
    3. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \color{blue}{\left(x \cdot \left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{2835} \cdot {x}^{2} - \frac{1}{180}\right)\right)\right)}\right) \]
    4. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \color{blue}{\left(\frac{1}{6} + {x}^{2} \cdot \left(\frac{1}{2835} \cdot {x}^{2} - \frac{1}{180}\right)\right)}\right)\right) \]
    5. +-lowering-+.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \color{blue}{\left({x}^{2} \cdot \left(\frac{1}{2835} \cdot {x}^{2} - \frac{1}{180}\right)\right)}\right)\right)\right) \]
    6. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\left({x}^{2}\right), \color{blue}{\left(\frac{1}{2835} \cdot {x}^{2} - \frac{1}{180}\right)}\right)\right)\right)\right) \]
    7. unpow2N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\left(x \cdot x\right), \left(\color{blue}{\frac{1}{2835} \cdot {x}^{2}} - \frac{1}{180}\right)\right)\right)\right)\right) \]
    8. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \left(\color{blue}{\frac{1}{2835} \cdot {x}^{2}} - \frac{1}{180}\right)\right)\right)\right)\right) \]
    9. sub-negN/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \left(\frac{1}{2835} \cdot {x}^{2} + \color{blue}{\left(\mathsf{neg}\left(\frac{1}{180}\right)\right)}\right)\right)\right)\right)\right) \]
    10. metadata-evalN/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \left(\frac{1}{2835} \cdot {x}^{2} + \frac{-1}{180}\right)\right)\right)\right)\right) \]
    11. +-commutativeN/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \left(\frac{-1}{180} + \color{blue}{\frac{1}{2835} \cdot {x}^{2}}\right)\right)\right)\right)\right) \]
    12. +-lowering-+.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{-1}{180}, \color{blue}{\left(\frac{1}{2835} \cdot {x}^{2}\right)}\right)\right)\right)\right)\right) \]
    13. unpow2N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{-1}{180}, \left(\frac{1}{2835} \cdot \left(x \cdot \color{blue}{x}\right)\right)\right)\right)\right)\right)\right) \]
    14. associate-*r*N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{-1}{180}, \left(\left(\frac{1}{2835} \cdot x\right) \cdot \color{blue}{x}\right)\right)\right)\right)\right)\right) \]
    15. *-commutativeN/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{-1}{180}, \left(x \cdot \color{blue}{\left(\frac{1}{2835} \cdot x\right)}\right)\right)\right)\right)\right)\right) \]
    16. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{-1}{180}, \mathsf{*.f64}\left(x, \color{blue}{\left(\frac{1}{2835} \cdot x\right)}\right)\right)\right)\right)\right)\right) \]
    17. *-commutativeN/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{-1}{180}, \mathsf{*.f64}\left(x, \left(x \cdot \color{blue}{\frac{1}{2835}}\right)\right)\right)\right)\right)\right)\right) \]
    18. *-lowering-*.f6496.7%

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \mathsf{+.f64}\left(\frac{-1}{180}, \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \color{blue}{\frac{1}{2835}}\right)\right)\right)\right)\right)\right)\right) \]
  5. Simplified96.7%

    \[\leadsto \color{blue}{x \cdot \left(x \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot \left(-0.005555555555555556 + x \cdot \left(x \cdot 0.0003527336860670194\right)\right)\right)\right)} \]
  6. Add Preprocessing

Alternative 3: 96.7% accurate, 18.5× speedup?

\[\begin{array}{l} \\ x \cdot \left(x \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot -0.005555555555555556\right)\right) \end{array} \]
(FPCore (x)
 :precision binary64
 (* x (* x (+ 0.16666666666666666 (* (* x x) -0.005555555555555556)))))
double code(double x) {
	return x * (x * (0.16666666666666666 + ((x * x) * -0.005555555555555556)));
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = x * (x * (0.16666666666666666d0 + ((x * x) * (-0.005555555555555556d0))))
end function
public static double code(double x) {
	return x * (x * (0.16666666666666666 + ((x * x) * -0.005555555555555556)));
}
def code(x):
	return x * (x * (0.16666666666666666 + ((x * x) * -0.005555555555555556)))
function code(x)
	return Float64(x * Float64(x * Float64(0.16666666666666666 + Float64(Float64(x * x) * -0.005555555555555556))))
end
function tmp = code(x)
	tmp = x * (x * (0.16666666666666666 + ((x * x) * -0.005555555555555556)));
end
code[x_] := N[(x * N[(x * N[(0.16666666666666666 + N[(N[(x * x), $MachinePrecision] * -0.005555555555555556), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
x \cdot \left(x \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot -0.005555555555555556\right)\right)
\end{array}
Derivation
  1. Initial program 54.3%

    \[\log \left(\frac{\sinh x}{x}\right) \]
  2. Add Preprocessing
  3. Taylor expanded in x around 0

    \[\leadsto \color{blue}{{x}^{2} \cdot \left(\frac{1}{6} + \frac{-1}{180} \cdot {x}^{2}\right)} \]
  4. Step-by-step derivation
    1. unpow2N/A

      \[\leadsto \left(x \cdot x\right) \cdot \left(\color{blue}{\frac{1}{6}} + \frac{-1}{180} \cdot {x}^{2}\right) \]
    2. associate-*l*N/A

      \[\leadsto x \cdot \color{blue}{\left(x \cdot \left(\frac{1}{6} + \frac{-1}{180} \cdot {x}^{2}\right)\right)} \]
    3. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \color{blue}{\left(x \cdot \left(\frac{1}{6} + \frac{-1}{180} \cdot {x}^{2}\right)\right)}\right) \]
    4. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \color{blue}{\left(\frac{1}{6} + \frac{-1}{180} \cdot {x}^{2}\right)}\right)\right) \]
    5. +-lowering-+.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \color{blue}{\left(\frac{-1}{180} \cdot {x}^{2}\right)}\right)\right)\right) \]
    6. *-commutativeN/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \left({x}^{2} \cdot \color{blue}{\frac{-1}{180}}\right)\right)\right)\right) \]
    7. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\left({x}^{2}\right), \color{blue}{\frac{-1}{180}}\right)\right)\right)\right) \]
    8. unpow2N/A

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\left(x \cdot x\right), \frac{-1}{180}\right)\right)\right)\right) \]
    9. *-lowering-*.f6496.2%

      \[\leadsto \mathsf{*.f64}\left(x, \mathsf{*.f64}\left(x, \mathsf{+.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, x\right), \frac{-1}{180}\right)\right)\right)\right) \]
  5. Simplified96.2%

    \[\leadsto \color{blue}{x \cdot \left(x \cdot \left(0.16666666666666666 + \left(x \cdot x\right) \cdot -0.005555555555555556\right)\right)} \]
  6. Add Preprocessing

Alternative 4: 96.5% accurate, 40.6× speedup?

\[\begin{array}{l} \\ x \cdot \left(x \cdot 0.16666666666666666\right) \end{array} \]
(FPCore (x) :precision binary64 (* x (* x 0.16666666666666666)))
double code(double x) {
	return x * (x * 0.16666666666666666);
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = x * (x * 0.16666666666666666d0)
end function
public static double code(double x) {
	return x * (x * 0.16666666666666666);
}
def code(x):
	return x * (x * 0.16666666666666666)
function code(x)
	return Float64(x * Float64(x * 0.16666666666666666))
end
function tmp = code(x)
	tmp = x * (x * 0.16666666666666666);
end
code[x_] := N[(x * N[(x * 0.16666666666666666), $MachinePrecision]), $MachinePrecision]
\begin{array}{l}

\\
x \cdot \left(x \cdot 0.16666666666666666\right)
\end{array}
Derivation
  1. Initial program 54.3%

    \[\log \left(\frac{\sinh x}{x}\right) \]
  2. Add Preprocessing
  3. Taylor expanded in x around 0

    \[\leadsto \color{blue}{\frac{1}{6} \cdot {x}^{2}} \]
  4. Step-by-step derivation
    1. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(\frac{1}{6}, \color{blue}{\left({x}^{2}\right)}\right) \]
    2. unpow2N/A

      \[\leadsto \mathsf{*.f64}\left(\frac{1}{6}, \left(x \cdot \color{blue}{x}\right)\right) \]
    3. *-lowering-*.f6496.0%

      \[\leadsto \mathsf{*.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \color{blue}{x}\right)\right) \]
  5. Simplified96.0%

    \[\leadsto \color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} \]
  6. Step-by-step derivation
    1. associate-*r*N/A

      \[\leadsto \left(\frac{1}{6} \cdot x\right) \cdot \color{blue}{x} \]
    2. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(\left(\frac{1}{6} \cdot x\right), \color{blue}{x}\right) \]
    3. *-commutativeN/A

      \[\leadsto \mathsf{*.f64}\left(\left(x \cdot \frac{1}{6}\right), x\right) \]
    4. *-lowering-*.f6496.0%

      \[\leadsto \mathsf{*.f64}\left(\mathsf{*.f64}\left(x, \frac{1}{6}\right), x\right) \]
  7. Applied egg-rr96.0%

    \[\leadsto \color{blue}{\left(x \cdot 0.16666666666666666\right) \cdot x} \]
  8. Final simplification96.0%

    \[\leadsto x \cdot \left(x \cdot 0.16666666666666666\right) \]
  9. Add Preprocessing

Alternative 5: 96.5% accurate, 40.6× speedup?

\[\begin{array}{l} \\ \left(x \cdot x\right) \cdot 0.16666666666666666 \end{array} \]
(FPCore (x) :precision binary64 (* (* x x) 0.16666666666666666))
double code(double x) {
	return (x * x) * 0.16666666666666666;
}
real(8) function code(x)
    real(8), intent (in) :: x
    code = (x * x) * 0.16666666666666666d0
end function
public static double code(double x) {
	return (x * x) * 0.16666666666666666;
}
def code(x):
	return (x * x) * 0.16666666666666666
function code(x)
	return Float64(Float64(x * x) * 0.16666666666666666)
end
function tmp = code(x)
	tmp = (x * x) * 0.16666666666666666;
end
code[x_] := N[(N[(x * x), $MachinePrecision] * 0.16666666666666666), $MachinePrecision]
\begin{array}{l}

\\
\left(x \cdot x\right) \cdot 0.16666666666666666
\end{array}
Derivation
  1. Initial program 54.3%

    \[\log \left(\frac{\sinh x}{x}\right) \]
  2. Add Preprocessing
  3. Taylor expanded in x around 0

    \[\leadsto \color{blue}{\frac{1}{6} \cdot {x}^{2}} \]
  4. Step-by-step derivation
    1. *-lowering-*.f64N/A

      \[\leadsto \mathsf{*.f64}\left(\frac{1}{6}, \color{blue}{\left({x}^{2}\right)}\right) \]
    2. unpow2N/A

      \[\leadsto \mathsf{*.f64}\left(\frac{1}{6}, \left(x \cdot \color{blue}{x}\right)\right) \]
    3. *-lowering-*.f6496.0%

      \[\leadsto \mathsf{*.f64}\left(\frac{1}{6}, \mathsf{*.f64}\left(x, \color{blue}{x}\right)\right) \]
  5. Simplified96.0%

    \[\leadsto \color{blue}{0.16666666666666666 \cdot \left(x \cdot x\right)} \]
  6. Final simplification96.0%

    \[\leadsto \left(x \cdot x\right) \cdot 0.16666666666666666 \]
  7. Add Preprocessing

Developer Target 1: 97.8% accurate, 0.5× speedup?

\[\begin{array}{l} \\ \begin{array}{l} \mathbf{if}\;\left|x\right| < 0.085:\\ \;\;\;\;\left(x \cdot x\right) \cdot \mathsf{fma}\left(\mathsf{fma}\left(\mathsf{fma}\left(-2.6455026455026456 \cdot 10^{-5}, x \cdot x, 0.0003527336860670194\right), x \cdot x, -0.005555555555555556\right), x \cdot x, 0.16666666666666666\right)\\ \mathbf{else}:\\ \;\;\;\;\log \left(\frac{\sinh x}{x}\right)\\ \end{array} \end{array} \]
(FPCore (x)
 :precision binary64
 (if (< (fabs x) 0.085)
   (*
    (* x x)
    (fma
     (fma
      (fma -2.6455026455026456e-5 (* x x) 0.0003527336860670194)
      (* x x)
      -0.005555555555555556)
     (* x x)
     0.16666666666666666))
   (log (/ (sinh x) x))))
double code(double x) {
	double tmp;
	if (fabs(x) < 0.085) {
		tmp = (x * x) * fma(fma(fma(-2.6455026455026456e-5, (x * x), 0.0003527336860670194), (x * x), -0.005555555555555556), (x * x), 0.16666666666666666);
	} else {
		tmp = log((sinh(x) / x));
	}
	return tmp;
}
function code(x)
	tmp = 0.0
	if (abs(x) < 0.085)
		tmp = Float64(Float64(x * x) * fma(fma(fma(-2.6455026455026456e-5, Float64(x * x), 0.0003527336860670194), Float64(x * x), -0.005555555555555556), Float64(x * x), 0.16666666666666666));
	else
		tmp = log(Float64(sinh(x) / x));
	end
	return tmp
end
code[x_] := If[Less[N[Abs[x], $MachinePrecision], 0.085], N[(N[(x * x), $MachinePrecision] * N[(N[(N[(-2.6455026455026456e-5 * N[(x * x), $MachinePrecision] + 0.0003527336860670194), $MachinePrecision] * N[(x * x), $MachinePrecision] + -0.005555555555555556), $MachinePrecision] * N[(x * x), $MachinePrecision] + 0.16666666666666666), $MachinePrecision]), $MachinePrecision], N[Log[N[(N[Sinh[x], $MachinePrecision] / x), $MachinePrecision]], $MachinePrecision]]
\begin{array}{l}

\\
\begin{array}{l}
\mathbf{if}\;\left|x\right| < 0.085:\\
\;\;\;\;\left(x \cdot x\right) \cdot \mathsf{fma}\left(\mathsf{fma}\left(\mathsf{fma}\left(-2.6455026455026456 \cdot 10^{-5}, x \cdot x, 0.0003527336860670194\right), x \cdot x, -0.005555555555555556\right), x \cdot x, 0.16666666666666666\right)\\

\mathbf{else}:\\
\;\;\;\;\log \left(\frac{\sinh x}{x}\right)\\


\end{array}
\end{array}

Reproduce

?
herbie shell --seed 2024159 
(FPCore (x)
  :name "bug500, discussion (missed optimization)"
  :precision binary64

  :alt
  (! :herbie-platform default (if (< (fabs x) 17/200) (let ((x2 (* x x))) (* x2 (fma (fma (fma -1/37800 x2 1/2835) x2 -1/180) x2 1/6))) (log (/ (sinh x) x))))

  (log (/ (sinh x) x)))