Details

Time bar (total: 26.2s)

analyze3.0ms (0%)

Algorithm
search
Search
ProbabilityValidUnknownPreconditionInfiniteDomainCan'tIter
0%0%100%0%0%0%0%0
0%0%100%0%0%0%0%1
0%0%100%0%0%0%0%2
50%50%50%0%0%0%0%3
75%75%25%0%0%0%0%4
87.5%87.5%12.5%0%0%0%0%5
93.8%93.7%6.2%0%0%0%0%6
96.9%96.8%3.1%0%0%0%0%7
98.4%98.4%1.6%0%0%0%0%8
99.2%99.2%0.8%0%0%0%0%9
99.6%99.6%0.4%0%0%0%0%10
99.8%99.8%0.2%0%0%0%0%11
99.9%99.9%0.1%0%0%0%0%12
Compiler

Compiled 8 to 6 computations (25% saved)

sample651.0ms (2.5%)

Results
640.0ms8256×body256valid
0.0msbody256infinite
Bogosity

preprocess361.0ms (1.4%)

Algorithm
egglog
Calls
Call 1
Inputs
0
Outputs
0
Call 2
Inputs
(sqrt.f64 (*.f64 (*.f64 2 x) x))
Outputs
(sqrt.f64 (*.f64 (*.f64 2 x) x))
(fabs.f64 (*.f64 (sqrt.f64 2) x))
Compiler

Compiled 7 to 5 computations (28.6% saved)

simplify188.0ms (0.7%)

Algorithm
egglog
Counts
1 → 2
Calls
Call 1
Inputs
(sqrt.f64 (*.f64 (*.f64 2 x) x))
Outputs
(sqrt.f64 (*.f64 (*.f64 2 x) x))
(fabs.f64 (*.f64 (sqrt.f64 2) x))

eval1.0ms (0%)

Compiler

Compiled 12 to 9 computations (25% saved)

prune2.0ms (0%)

Pruning

3 alts after pruning (3 fresh and 0 done)

PrunedKeptTotal
New022
Fresh011
Picked000
Done000
Total033
Error
0.45%
Counts
3 → 2
Alt Table
Click to see full alt table
StatusErrorProgram
47.28%
(sqrt.f64 (*.f64 (*.f64 2 x) x))
0.69%
(fabs.f64 (*.f64 (sqrt.f64 2) x))
Compiler

Compiled 26 to 20 computations (23.1% saved)

localize8.0ms (0%)

Local error

Found 1 expressions with local error:

NewErrorProgram
0.69%
(*.f64 (sqrt.f64 2) x)
Compiler

Compiled 14 to 11 computations (21.4% saved)

series1.0ms (0%)

Counts
1 → 0
Calls

3 calls:

TimeVariablePointExpression
1.0ms
x
@0
(*.f64 (sqrt.f64 2) x)
0.0ms
x
@inf
(*.f64 (sqrt.f64 2) x)
0.0ms
x
@-inf
(*.f64 (sqrt.f64 2) x)

rewrite5.3s (20.1%)

Algorithm
batch-egg-rewrite
Counts
1 → 55
Calls
Call 1
Inputs
(*.f64 (sqrt.f64 2) x)
Outputs
((*.f64 (sqrt.f64 2) x) (+.f64 (*.f64 1/2 (*.f64 (sqrt.f64 2) x)) (*.f64 1/2 (*.f64 (sqrt.f64 2) x))) (+.f64 (*.f64 (*.f64 (sqrt.f64 2) x) 1/2) (*.f64 (*.f64 (sqrt.f64 2) x) 1/2)) (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3) (pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 1/3) (pow.f64 (*.f64 (sqrt.f64 2) x) 1) (/.f64 (*.f64 (sqrt.f64 2) x) 1) (if (and (>.f64 x 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 x 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>=.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>=.f64 1 0) (>=.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (sqrt.f64 2) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (exp.f64 (log.f64 (*.f64 (sqrt.f64 2) x))) (*.f64 (sqrt.f64 2) x)) (if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x)) (if (and (>=.f64 (sqrt.f64 2) 0) (>=.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>=.f64 (cbrt.f64 2) 0) (>=.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2)))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (sqrt.f64 8) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 2 (pow.f64 x 2)) 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 (*.f64 2 (pow.f64 x 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (sqrt.f64 8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 (sqrt.f64 2) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 (cbrt.f64 (sqrt.f64 2)) x) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 x) 2) (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (*.f64 (cbrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 1 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) (+.f64 2 1)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 1/3 3)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 3 1/3)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 3)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3))) 1/3)) (*.f64 (sqrt.f64 2) x)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) (*.f64 x (pow.f64 2 1/2)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))

simplify402.0ms (1.5%)

Algorithm
egglog
Counts
55 → 56
Calls
Call 1
Inputs
(*.f64 (sqrt.f64 2) x)
(+.f64 (*.f64 1/2 (*.f64 (sqrt.f64 2) x)) (*.f64 1/2 (*.f64 (sqrt.f64 2) x)))
(+.f64 (*.f64 (*.f64 (sqrt.f64 2) x) 1/2) (*.f64 (*.f64 (sqrt.f64 2) x) 1/2))
(pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3)
(pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 1/3)
(pow.f64 (*.f64 (sqrt.f64 2) x) 1)
(/.f64 (*.f64 (sqrt.f64 2) x) 1)
(if (and (>.f64 x 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>=.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 1 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>=.f64 1 0) (>=.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (sqrt.f64 2) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (exp.f64 (log.f64 (*.f64 (sqrt.f64 2) x))) (*.f64 (sqrt.f64 2) x))
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x))
(if (and (>=.f64 (sqrt.f64 2) 0) (>=.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>=.f64 (cbrt.f64 2) 0) (>=.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2)))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (sqrt.f64 8) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (*.f64 2 (pow.f64 x 2)) 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 (*.f64 2 (pow.f64 x 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (sqrt.f64 8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (*.f64 (sqrt.f64 2) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (*.f64 (cbrt.f64 (sqrt.f64 2)) x) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 x) 2) (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (*.f64 (cbrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 1 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) (+.f64 2 1)) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 1/3 3)) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 3 1/3)) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 3)) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3))) 1/3)) (*.f64 (sqrt.f64 2) x))
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 x (pow.f64 2 1/2))
(*.f64 (sqrt.f64 2) x)
(*.f64 (sqrt.f64 2) x)
Outputs
(*.f64 (sqrt.f64 2) x)
(*.f64 x (sqrt.f64 2))
(+.f64 (*.f64 1/2 (*.f64 (sqrt.f64 2) x)) (*.f64 1/2 (*.f64 (sqrt.f64 2) x)))
(*.f64 x (sqrt.f64 2))
(+.f64 (*.f64 (*.f64 (sqrt.f64 2) x) 1/2) (*.f64 (*.f64 (sqrt.f64 2) x) 1/2))
(*.f64 x (sqrt.f64 2))
(pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3)
(*.f64 x (sqrt.f64 2))
(pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 1/3)
(*.f64 x (sqrt.f64 2))
(pow.f64 (*.f64 (sqrt.f64 2) x) 1)
(*.f64 x (sqrt.f64 2))
(/.f64 (*.f64 (sqrt.f64 2) x) 1)
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 x 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>=.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 1 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>=.f64 1 0) (>=.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (sqrt.f64 2) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (exp.f64 (log.f64 (*.f64 (sqrt.f64 2) x))) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x))
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 x (sqrt.f64 2)))
(if (and (>=.f64 (sqrt.f64 2) 0) (>=.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>=.f64 (cbrt.f64 2) 0) (>=.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2)))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (sqrt.f64 8) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (*.f64 2 (pow.f64 x 2)) 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 (*.f64 2 (pow.f64 x 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (sqrt.f64 8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (*.f64 (sqrt.f64 2) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (*.f64 (cbrt.f64 (sqrt.f64 2)) x) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 x) 2) (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (*.f64 (cbrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 1 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) (+.f64 2 1)) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 1/3 3)) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 3 1/3)) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 3)) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3))) 1/3)) (*.f64 (sqrt.f64 2) x))
(*.f64 x (sqrt.f64 2))
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 x (pow.f64 2 1/2))
(*.f64 x (sqrt.f64 2))
(*.f64 (sqrt.f64 2) x)
(*.f64 x (sqrt.f64 2))
(*.f64 (sqrt.f64 2) x)
(*.f64 x (sqrt.f64 2))

eval33.0ms (0.1%)

Compiler

Compiled 983 to 829 computations (15.7% saved)

prune18.0ms (0.1%)

Pruning

5 alts after pruning (4 fresh and 1 done)

PrunedKeptTotal
New53356
Fresh011
Picked011
Done000
Total53558
Error
0.04%
Counts
58 → 5
Alt Table
Click to see full alt table
StatusErrorProgram
47.28%
(sqrt.f64 (*.f64 (*.f64 2 x) x))
2.2%
(fabs.f64 (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3))
0.92%
(fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x))
0.73%
(fabs.f64 (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)))
0.69%
(fabs.f64 (*.f64 (sqrt.f64 2) x))
Compiler

Compiled 78 to 67 computations (14.1% saved)

localize17.0ms (0.1%)

Local error

Found 2 expressions with local error:

NewErrorProgram
0.32%
(*.f64 (pow.f64 4 1/8) x)
0.5%
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
Compiler

Compiled 31 to 27 computations (12.9% saved)

series34.0ms (0.1%)

Counts
2 → 12
Calls

6 calls:

TimeVariablePointExpression
32.0ms
x
@0
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
0.0ms
x
@inf
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
0.0ms
x
@-inf
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
0.0ms
x
@inf
(*.f64 (pow.f64 4 1/8) x)
0.0ms
x
@-inf
(*.f64 (pow.f64 4 1/8) x)

rewrite5.1s (19.6%)

Algorithm
batch-egg-rewrite
Counts
2 → 109
Calls
Call 1
Inputs
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) x)
Outputs
((*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 (*.f64 (pow.f64 4 1/4) x) 1) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 3) (pow.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 1/3) (if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) (exp.f64 (log.f64 x))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/4) x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>=.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>=.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 4 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 1 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x))) 0) (>.f64 (cbrt.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 0)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) (pow.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 1/3)) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x)) 3))) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))))) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (pow.f64 16 1/32) 3)))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 1) (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) (*.f64 (pow.f64 4 1/4) x)) (*.f64 x (pow.f64 16 1/8)) (*.f64 (pow.f64 4 1/8) (*.f64 x (pow.f64 4 1/8))) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)))
((*.f64 (pow.f64 4 1/8) x) (pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 3) (pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 1/3) (pow.f64 (*.f64 x (pow.f64 2 1/4)) 1) (if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 x 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 x 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 x))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>=.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (pow.f64 2 1/4) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 0)) (*.f64 (cbrt.f64 x) (pow.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 1)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 0)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) (pow.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 1)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 1 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (pow.f64 16 1/32) (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1) (pow.f64 16 1/32)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0)) (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 1 1/3) (*.f64 x (pow.f64 2 1/4))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (+.f64 2 1)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 3 1/3)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 1/3 3)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))) 3))) (*.f64 x (pow.f64 2 1/4))) (*.f64 (cbrt.f64 x) (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2))) (*.f64 1 (*.f64 x (pow.f64 2 1/4))) (*.f64 x (pow.f64 4 1/8)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))

simplify816.0ms (3.1%)

Algorithm
egglog
Counts
121 → 128
Calls
Call 1
Inputs
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(pow.f64 (*.f64 (pow.f64 4 1/4) x) 1)
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 3)
(pow.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 1/3)
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) (exp.f64 (log.f64 x))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/4) x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>=.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (pow.f64 4 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 1 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x))) 0) (>.f64 (cbrt.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 0)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) (pow.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 1/3)) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x)) 3))) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))))) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (pow.f64 16 1/32) 3)))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 1) (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) (*.f64 (pow.f64 4 1/4) x))
(*.f64 x (pow.f64 16 1/8))
(*.f64 (pow.f64 4 1/8) (*.f64 x (pow.f64 4 1/8)))
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) x)
(pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 3)
(pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 1/3)
(pow.f64 (*.f64 x (pow.f64 2 1/4)) 1)
(if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 x 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 x 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 x))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (>=.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (pow.f64 2 1/4) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 0)) (*.f64 (cbrt.f64 x) (pow.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 1)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 0)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) (pow.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 1)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 1 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (pow.f64 16 1/32) (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1) (pow.f64 16 1/32)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0)) (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 1 1/3) (*.f64 x (pow.f64 2 1/4))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (+.f64 2 1)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 3 1/3)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 1/3 3)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))) 3))) (*.f64 x (pow.f64 2 1/4)))
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)))
(*.f64 1 (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 4 1/8))
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (pow.f64 4 1/8) x)
Outputs
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/4) x)
(pow.f64 (*.f64 (pow.f64 4 1/4) x) 1)
(*.f64 (pow.f64 4 1/4) x)
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 3)
(*.f64 (pow.f64 4 1/4) x)
(pow.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 1/3)
(cbrt.f64 (*.f64 (pow.f64 x 3) (pow.f64 16 3/8)))
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) (exp.f64 (log.f64 x))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/4) x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>=.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (pow.f64 4 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 1 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x))) 0) (>.f64 (cbrt.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 0)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) (pow.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 1/3)) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x)) 3))) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))))) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4)))) (pow.f64 2 1/4)) (*.f64 (pow.f64 4 1/4) x))
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x))) (*.f64 (pow.f64 4 1/4) x))
(*.f64 (pow.f64 4 1/4) x)
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 2 1/4) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8)))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (pow.f64 16 1/32) 3)))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 16 3/32)))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (cbrt.f64 2) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (cbrt.f64 (pow.f64 4 1/4)) (*.f64 (cbrt.f64 2) x)) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 1) (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) (*.f64 (pow.f64 4 1/4) x))
(if (and (>.f64 (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2))) 0)) (*.f64 (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 2 1/4)) (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)))) (*.f64 (pow.f64 4 1/4) x))
(*.f64 x (pow.f64 16 1/8))
(*.f64 (pow.f64 4 1/8) (*.f64 x (pow.f64 4 1/8)))
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/4) x)
(*.f64 (pow.f64 4 1/8) x)
(pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 3)
(*.f64 x (pow.f64 2 1/4))
(pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 1/3)
(cbrt.f64 (*.f64 (pow.f64 x 3) (pow.f64 4 3/8)))
(pow.f64 (*.f64 x (pow.f64 2 1/4)) 1)
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 x 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 x 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 x))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>=.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 (pow.f64 2 1/4) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 0)) (*.f64 (cbrt.f64 x) (pow.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 1)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 0)) (*.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 0)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) (pow.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 1)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 0)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 1 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (pow.f64 16 1/32) (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1) (pow.f64 16 1/32)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (cbrt.f64 (pow.f64 4 1/4)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (cbrt.f64 (*.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)) (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0)) (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)) 0)) (cbrt.f64 (*.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)) (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 1 1/3) (*.f64 x (pow.f64 2 1/4))) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 x 3) (pow.f64 4 3/8)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (+.f64 2 1)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (*.f64 (pow.f64 x 3) (pow.f64 4 3/8)) 0) (cbrt.f64 (*.f64 (pow.f64 x 3) (pow.f64 4 3/8))) (*.f64 x (pow.f64 2 1/4)))
(if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 3 1/3)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 1/3 3)) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))) 3))) (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)))
(*.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2))
(*.f64 1 (*.f64 x (pow.f64 2 1/4)))
(*.f64 x (pow.f64 2 1/4))
(*.f64 x (pow.f64 4 1/8))
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (pow.f64 4 1/8) x)

eval72.0ms (0.3%)

Compiler

Compiled 3223 to 2813 computations (12.7% saved)

prune44.0ms (0.2%)

Pruning

6 alts after pruning (4 fresh and 2 done)

PrunedKeptTotal
New1271128
Fresh033
Picked011
Done011
Total1276133
Error
0.02%
Counts
133 → 6
Alt Table
Click to see full alt table
StatusErrorProgram
47.28%
(sqrt.f64 (*.f64 (*.f64 2 x) x))
2.2%
(fabs.f64 (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3))
0.92%
(fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x))
0.62%
(fabs.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))))
0.73%
(fabs.f64 (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)))
0.69%
(fabs.f64 (*.f64 (sqrt.f64 2) x))
Compiler

Compiled 139 to 125 computations (10.1% saved)

localize84.0ms (0.3%)

Local error

Found 4 expressions with local error:

NewErrorProgram
0.32%
(*.f64 x (pow.f64 2 1/4))
0.44%
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
0.5%
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
1.56%
(cbrt.f64 16)
Compiler

Compiled 181 to 171 computations (5.5% saved)

series83.0ms (0.3%)

Counts
4 → 36
Calls

9 calls:

TimeVariablePointExpression
66.0ms
x
@0
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
13.0ms
x
@0
(*.f64 x (pow.f64 2 1/4))
1.0ms
x
@inf
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
1.0ms
x
@0
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
1.0ms
x
@inf
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))

rewrite4.0s (15.2%)

Algorithm
batch-egg-rewrite
Counts
4 → 216
Calls
Call 1
Inputs
(cbrt.f64 16)
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 x (pow.f64 2 1/4))
Outputs
((cbrt.f64 16) (pow.f64 (cbrt.f64 16) 1) (pow.f64 (cbrt.f64 (cbrt.f64 16)) 3) (pow.f64 16 1/3) (pow.f64 16 (*.f64 1/3 1)) (pow.f64 4 (+.f64 1/3 1/3)) (pow.f64 4 (*.f64 2 1/3)) (pow.f64 (cbrt.f64 4) 2) (*.f64 (cbrt.f64 4) (cbrt.f64 4)) (*.f64 (cbrt.f64 16) 1) (*.f64 1 (cbrt.f64 16)) (*.f64 (pow.f64 1 1/3) (cbrt.f64 16)) (*.f64 (cbrt.f64 1) (cbrt.f64 16)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 (cbrt.f64 (*.f64 16 16)))) (*.f64 (cbrt.f64 (cbrt.f64 4)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 4))) (*.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) (cbrt.f64 (cbrt.f64 16))) (*.f64 (*.f64 (cbrt.f64 4) (cbrt.f64 (cbrt.f64 4))) (cbrt.f64 (cbrt.f64 16))) (exp.f64 (*.f64 (log.f64 16) 1/3)) (if (and (>.f64 4 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 1 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 (cbrt.f64 16)) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 16 0) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 4 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>=.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16)) (if (>=.f64 4 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/3)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 4) 0) (pow.f64 (cbrt.f64 4) (+.f64 1 1)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 16) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 1)) (cbrt.f64 16)) (if (and (>.f64 1 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>=.f64 1 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>=.f64 16 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>=.f64 4 0) (>=.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 (cbrt.f64 4)) 0) (>.f64 (cbrt.f64 (cbrt.f64 16)) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 4 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 2 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 2 0) (>.f64 2 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16)) (if (>=.f64 2 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (*.f64 2 1/3)) (cbrt.f64 16)) (if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (+.f64 1/3 1/3)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (*.f64 2 1/3)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (+.f64 1/3 1/3)) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) (*.f64 1/3 1)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) 1/3) (cbrt.f64 16)) (if (and (>=.f64 16 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) (cbrt.f64 16) (cbrt.f64 16))
((*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3) (pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 3) 1/3) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2)) (*.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) (pow.f64 4 1/8))) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (*.f64 1 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (pow.f64 4 1/16)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/8)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)) (*.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/8) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3)) 1/3) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) 1) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (>.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 x (pow.f64 16 1/16)))) (*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))))) (*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (pow.f64 16 1/32)) x) (*.f64 x (pow.f64 16 1/16)))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))))
((*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1) (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3) (pow.f64 (pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 3) 1/3) (*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (cbrt.f64 (*.f64 (pow.f64 16 1/32) x))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2)) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) (*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) x) (*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 1) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) 2)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2)) (*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 (cbrt.f64 4) 1/16)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))) (*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 1 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 x (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 16 1/64) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (cbrt.f64 (pow.f64 16 1/32)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16))) (if (>.f64 (cbrt.f64 16) 0) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (exp.f64 (*.f64 1/16 (log.f64 (cbrt.f64 16))))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 0) (>.f64 (pow.f64 (cbrt.f64 16) 1/16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 1 0) (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) 1) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3)) 1/3) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/32)) 1))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 (cbrt.f64 16) 1/32) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/32))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (pow.f64 16 1/64) 0) (>.f64 (pow.f64 16 1/64) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>=.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 16 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 1 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/32)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
((*.f64 x (pow.f64 2 1/4)) (pow.f64 (*.f64 (pow.f64 4 1/8) x) 1) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 3) (pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) x) 3) 1/3) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2)) (*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 4 1/8))) (*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) x)) (*.f64 1 (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (*.f64 x (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)) (*.f64 x (pow.f64 4 1/8)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) x))) (*.f64 (*.f64 (pow.f64 4 1/8) x) 1) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))) (if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) x) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3)) 1/3) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) 1) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3))) (*.f64 (pow.f64 4 1/8) x)) (if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 x (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) x)) (if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 x (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>=.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (*.f64 x (pow.f64 16 1/16)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4)))

simplify3.2s (12.2%)

Algorithm
egglog
Counts
252 → 279
Calls
Call 1
Inputs
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(*.f64 (pow.f64 2 1/4) x)
(cbrt.f64 16)
(pow.f64 (cbrt.f64 16) 1)
(pow.f64 (cbrt.f64 (cbrt.f64 16)) 3)
(pow.f64 16 1/3)
(pow.f64 16 (*.f64 1/3 1))
(pow.f64 4 (+.f64 1/3 1/3))
(pow.f64 4 (*.f64 2 1/3))
(pow.f64 (cbrt.f64 4) 2)
(*.f64 (cbrt.f64 4) (cbrt.f64 4))
(*.f64 (cbrt.f64 16) 1)
(*.f64 1 (cbrt.f64 16))
(*.f64 (pow.f64 1 1/3) (cbrt.f64 16))
(*.f64 (cbrt.f64 1) (cbrt.f64 16))
(*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 (cbrt.f64 (*.f64 16 16))))
(*.f64 (cbrt.f64 (cbrt.f64 4)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 4)))
(*.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) (cbrt.f64 (cbrt.f64 16)))
(*.f64 (*.f64 (cbrt.f64 4) (cbrt.f64 (cbrt.f64 4))) (cbrt.f64 (cbrt.f64 16)))
(exp.f64 (*.f64 (log.f64 16) 1/3))
(if (and (>.f64 4 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 1 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 16)) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 16 0) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 4 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>=.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16))
(if (>=.f64 4 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/3)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (cbrt.f64 4) (+.f64 1 1)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 1)) (cbrt.f64 16))
(if (and (>.f64 1 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>=.f64 1 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>=.f64 16 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>=.f64 4 0) (>=.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 4)) 0) (>.f64 (cbrt.f64 (cbrt.f64 16)) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 4 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 2 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 2 0) (>.f64 2 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16))
(if (>=.f64 2 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (*.f64 2 1/3)) (cbrt.f64 16))
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (+.f64 1/3 1/3)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (*.f64 2 1/3)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (+.f64 1/3 1/3)) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) (*.f64 1/3 1)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) 1/3) (cbrt.f64 16))
(if (and (>=.f64 16 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16))
(cbrt.f64 16)
(cbrt.f64 16)
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
(pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1)
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3)
(pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 3) 1/3)
(*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2))
(*.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) (pow.f64 4 1/8)))
(*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 1 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))))
(*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (pow.f64 4 1/16))
(*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/8))
(*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2))
(*.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1)
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/8) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3)) 1/3) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) 1) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (>.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 x (pow.f64 16 1/16))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16)))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (pow.f64 16 1/32)) x) (*.f64 x (pow.f64 16 1/16))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1)
(pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3)
(pow.f64 (pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 3) 1/3)
(*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (cbrt.f64 (*.f64 (pow.f64 16 1/32) x))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2))
(*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32))
(*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) x)
(*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 1) (pow.f64 (cbrt.f64 16) 1/16))
(*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) 2))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2))
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 (cbrt.f64 4) 1/16))
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))))
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1)
(*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 1 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2))
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 x (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 16 1/32) x)))
(*.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2) (*.f64 (pow.f64 16 1/32) x)))
(*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 16 1/64) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (cbrt.f64 (pow.f64 16 1/32)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16))
(*.f64 (pow.f64 16 1/32) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))
(if (>.f64 (cbrt.f64 16) 0) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (exp.f64 (*.f64 1/16 (log.f64 (cbrt.f64 16))))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 0) (>.f64 (pow.f64 (cbrt.f64 16) 1/16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 1 0) (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) 1) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3)) 1/3) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/32)) 1))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 (cbrt.f64 16) 1/32) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/32))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (pow.f64 16 1/64) 0) (>.f64 (pow.f64 16 1/64) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>=.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 16 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 1 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/32)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 x (pow.f64 2 1/4))
(pow.f64 (*.f64 (pow.f64 4 1/8) x) 1)
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 3)
(pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) x) 3) 1/3)
(*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2))
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 4 1/8)))
(*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) x))
(*.f64 1 (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2))
(*.f64 (*.f64 x (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2))
(*.f64 x (pow.f64 4 1/8))
(*.f64 (*.f64 x (pow.f64 4 1/16)) (pow.f64 4 1/16))
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)))
(*.f64 (*.f64 (pow.f64 4 1/8) x) 1)
(*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16)))
(if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) x) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3)) 1/3) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) 1) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3))) (*.f64 (pow.f64 4 1/8) x))
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 x (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) x))
(if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 x (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>=.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(*.f64 x (pow.f64 16 1/16))
(*.f64 x (pow.f64 2 1/4))
(*.f64 x (pow.f64 2 1/4))
Outputs
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(*.f64 (pow.f64 2 1/4) x)
(*.f64 x (pow.f64 2 1/4))
(cbrt.f64 16)
(pow.f64 (cbrt.f64 16) 1)
(cbrt.f64 16)
(pow.f64 (cbrt.f64 (cbrt.f64 16)) 3)
(cbrt.f64 16)
(pow.f64 16 1/3)
(cbrt.f64 16)
(pow.f64 16 (*.f64 1/3 1))
(cbrt.f64 16)
(pow.f64 4 (+.f64 1/3 1/3))
(pow.f64 4 2/3)
(pow.f64 4 (*.f64 2 1/3))
(pow.f64 4 2/3)
(pow.f64 (cbrt.f64 4) 2)
(cbrt.f64 (*.f64 4 4))
(*.f64 (cbrt.f64 4) (cbrt.f64 4))
(cbrt.f64 (*.f64 4 4))
(*.f64 (cbrt.f64 16) 1)
(cbrt.f64 16)
(*.f64 1 (cbrt.f64 16))
(cbrt.f64 16)
(*.f64 (pow.f64 1 1/3) (cbrt.f64 16))
(cbrt.f64 16)
(*.f64 (cbrt.f64 1) (cbrt.f64 16))
(cbrt.f64 16)
(*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 (cbrt.f64 (*.f64 16 16))))
(cbrt.f64 (*.f64 (cbrt.f64 16) (cbrt.f64 256)))
(*.f64 (cbrt.f64 (cbrt.f64 4)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 4)))
(*.f64 (cbrt.f64 (cbrt.f64 4)) (cbrt.f64 (*.f64 (cbrt.f64 16) 4)))
(*.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) (cbrt.f64 (cbrt.f64 16)))
(cbrt.f64 (*.f64 (cbrt.f64 16) (cbrt.f64 256)))
(*.f64 (*.f64 (cbrt.f64 4) (cbrt.f64 (cbrt.f64 4))) (cbrt.f64 (cbrt.f64 16)))
(*.f64 (cbrt.f64 (*.f64 4 (cbrt.f64 4))) (cbrt.f64 (cbrt.f64 16)))
(exp.f64 (*.f64 (log.f64 16) 1/3))
(cbrt.f64 16)
(if (and (>.f64 4 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 1 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 16)) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 16)) 0) (>.f64 (cbrt.f64 (cbrt.f64 256)) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 16 0) (cbrt.f64 16) (cbrt.f64 16))
(cbrt.f64 16)
(if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 4 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>=.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16))
(if (>=.f64 4 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/3)) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 256) 0)) (cbrt.f64 (*.f64 (cbrt.f64 16) (cbrt.f64 256))) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (cbrt.f64 4) (+.f64 1 1)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (cbrt.f64 (*.f64 4 4)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 1)) (cbrt.f64 16))
(cbrt.f64 16)
(if (and (>.f64 1 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>=.f64 1 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>=.f64 16 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>=.f64 4 0) (>=.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 (cbrt.f64 4)) 0) (>.f64 (cbrt.f64 (cbrt.f64 16)) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 4 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 2 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 2 0) (>.f64 2 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16))
(if (>=.f64 2 0) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (*.f64 2 1/3)) (cbrt.f64 16))
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 256) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 256))) 2/3) (cbrt.f64 16))
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (+.f64 1/3 1/3)) (cbrt.f64 16))
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 256) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 256))) 2/3) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (*.f64 2 1/3)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3) 2/3)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (+.f64 1/3 1/3)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 4) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3) 2/3)) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 256) 0)) (cbrt.f64 16) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) (*.f64 1/3 1)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (cbrt.f64 16))) 3)) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) 1/3) (cbrt.f64 16))
(if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (cbrt.f64 16))) 3)) (cbrt.f64 16))
(if (and (>=.f64 16 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16))
(cbrt.f64 16)
(cbrt.f64 16)
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1)
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3)
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 3) 1/3)
(cbrt.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 3))
(*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(*.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) (pow.f64 4 1/8)))
(*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 1 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2))
(*.f64 (pow.f64 4 1/8) (*.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2)))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (pow.f64 4 1/16))
(*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/8))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2))
(*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (cbrt.f64 (pow.f64 4 1/8)) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)))
(*.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1)
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/8) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3)) 1/3) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) 3)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) 1) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) 3)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (log.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (>.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (exp.f64 (*.f64 1/16 (log.f64 4)))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 2 1/4)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 x (pow.f64 16 1/16))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 16 1/16))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16)))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16)))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (pow.f64 16 1/32)) x) (*.f64 x (pow.f64 16 1/16))))
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 16 1/16))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1)
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3)
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(pow.f64 (pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 3) 1/3)
(cbrt.f64 (pow.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 3))
(*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (cbrt.f64 (*.f64 (pow.f64 16 1/32) x))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2)))
(*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) x)
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 1) (pow.f64 (cbrt.f64 16) 1/16))
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16))
(*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) 2))
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (*.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) 2)))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2)))
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 (cbrt.f64 4) 1/16))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1)
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))))
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 1 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 x (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 16 1/32) x)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2) (*.f64 (pow.f64 16 1/32) x)))
(*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 16 1/64) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))))
(*.f64 (cbrt.f64 (pow.f64 16 1/32)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (cbrt.f64 (pow.f64 16 1/32)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))))
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16))
(*.f64 (pow.f64 16 1/32) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(if (>.f64 (cbrt.f64 16) 0) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (exp.f64 (*.f64 1/16 (log.f64 (cbrt.f64 16))))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (cbrt.f64 16) 0) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (exp.f64 1/16) (log.f64 (cbrt.f64 16)))) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (>.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 16 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 0) (>.f64 (pow.f64 (cbrt.f64 16) 1/16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 0) (>.f64 (pow.f64 (cbrt.f64 16) 1/16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16))) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) 2) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(if (and (>.f64 1 0) (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 1 0) (>.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) 1) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3)) 1/3) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))) 3)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))) 3)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/32)) 1))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16))) (exp.f64 (*.f64 1/32 (log.f64 16)))) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 (cbrt.f64 16) 1/32) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/32))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 256) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16))) (*.f64 (pow.f64 (cbrt.f64 16) 1/32) (pow.f64 (cbrt.f64 256) 1/32))) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (pow.f64 16 1/64) 0) (>.f64 (pow.f64 16 1/64) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (pow.f64 16 1/64) 0) (>.f64 (pow.f64 16 1/64) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (>=.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>=.f64 16 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 16 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 16 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 1 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 1 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/32)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/32)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))
(*.f64 x (pow.f64 2 1/4))
(pow.f64 (*.f64 (pow.f64 4 1/8) x) 1)
(*.f64 (pow.f64 4 1/8) x)
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 3)
(*.f64 (pow.f64 4 1/8) x)
(pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) x) 3) 1/3)
(cbrt.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) x) 3))
(*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2))
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 4 1/8)))
(*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) x))
(*.f64 1 (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2))
(*.f64 (pow.f64 4 1/8) (*.f64 (cbrt.f64 x) (pow.f64 (cbrt.f64 x) 2)))
(*.f64 (*.f64 x (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2))
(*.f64 x (*.f64 (cbrt.f64 (pow.f64 4 1/8)) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)))
(*.f64 x (pow.f64 4 1/8))
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (*.f64 x (pow.f64 4 1/16)) (pow.f64 4 1/16))
(*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16)))
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)))
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (*.f64 (pow.f64 4 1/8) x) 1)
(*.f64 (pow.f64 4 1/8) x)
(*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16)))
(if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) x)
(if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) x) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) x)
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3)) 1/3) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x))) 3)) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) 1) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) x)
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3))) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x))) 3)) (*.f64 (pow.f64 4 1/8) x))
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (log.f64 x))) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1))) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (pow.f64 4 1/8) x)
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 x (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 x (pow.f64 4 1/16)) (exp.f64 (*.f64 1/16 (log.f64 4)))) (*.f64 (pow.f64 4 1/8) x))
(if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 x (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (>=.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x))
(*.f64 x (pow.f64 16 1/16))
(*.f64 x (pow.f64 2 1/4))
(*.f64 x (pow.f64 2 1/4))

eval402.0ms (1.5%)

Compiler

Compiled 17231 to 16275 computations (5.5% saved)

prune289.0ms (1.1%)

Pruning

6 alts after pruning (4 fresh and 2 done)

PrunedKeptTotal
New3403343
Fresh213
Picked011
Done112
Total3436349
Error
0%
Counts
349 → 6
Alt Table
Click to see full alt table
StatusErrorProgram
1.04%
(fabs.f64 (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))))
0.92%
(fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x))
0.62%
(fabs.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))))
1.09%
(fabs.f64 (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))))
2.09%
(fabs.f64 (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2)))
0.69%
(fabs.f64 (*.f64 (sqrt.f64 2) x))
Compiler

Compiled 396 to 371 computations (6.3% saved)

localize14.0ms (0.1%)

Local error

Found 2 expressions with local error:

NewErrorProgram
0.69%
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
1.56%
(pow.f64 (pow.f64 4 1/8) 2)
Compiler

Compiled 28 to 25 computations (10.7% saved)

series0.0ms (0%)

Counts
2 → 0
Calls

3 calls:

TimeVariablePointExpression
0.0ms
x
@0
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
0.0ms
x
@inf
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
0.0ms
x
@-inf
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)

rewrite4.3s (16.6%)

Algorithm
batch-egg-rewrite
Counts
2 → 108
Calls
Call 1
Inputs
(pow.f64 (pow.f64 4 1/8) 2)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
Outputs
((pow.f64 (pow.f64 4 1/8) 2) (pow.f64 (pow.f64 4 3/4) 1/3) (pow.f64 (pow.f64 16 1/8) 1) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 3) (pow.f64 (pow.f64 16 1/16) 2) (pow.f64 16 1/8) (pow.f64 4 1/4) (*.f64 (cbrt.f64 (pow.f64 16 1/16)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 16 1/16))) (*.f64 (pow.f64 2 1/4) (pow.f64 2 1/4)) (*.f64 (pow.f64 16 1/8) 1) (*.f64 1 (pow.f64 16 1/8)) (*.f64 (pow.f64 1 1/4) (pow.f64 16 1/8)) (*.f64 (pow.f64 16 1/16) (pow.f64 16 1/16)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8))) (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8)))) 3)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) (cbrt.f64 (pow.f64 16 1/8))) (*.f64 (*.f64 (pow.f64 16 1/16) (cbrt.f64 (pow.f64 16 1/16))) (cbrt.f64 (pow.f64 16 1/8))) (*.f64 (pow.f64 (pow.f64 4 1/16) 3) (pow.f64 4 1/16)) (*.f64 (pow.f64 4 1/16) (pow.f64 (pow.f64 4 1/16) 3)) (exp.f64 (*.f64 (log.f64 4) 1/4)) (exp.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1)) (exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 3) 1/3)) (exp.f64 (*.f64 (*.f64 (log.f64 4) 1) 1/4)) (exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1) 1)) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 2 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 1 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 (pow.f64 16 1/8) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 4 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>=.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>=.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (NAN.f64)) (if (and (>.f64 1/8 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (sqrt.f64 1/8) 0) (>.f64 (sqrt.f64 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 1 0) (>.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (cbrt.f64 1/8) 0) (>.f64 1/4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>=.f64 1/8 0) (>=.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>=.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>=.f64 2 0) (>=.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 2 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>=.f64 1 0) (>=.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 1 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (pow.f64 (pow.f64 4 1/8) 2) (pow.f64 (pow.f64 4 1/8) 2))
((*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) (pow.f64 (*.f64 (pow.f64 16 1/8) x) 1) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 3) (pow.f64 (*.f64 (pow.f64 4 3/4) (pow.f64 x 3)) 1/3) (*.f64 (*.f64 (pow.f64 16 1/8) x) 1) (*.f64 1 (*.f64 (pow.f64 16 1/8) x)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2)) (*.f64 (*.f64 x (cbrt.f64 (pow.f64 16 1/8))) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) (*.f64 (*.f64 (pow.f64 16 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 16 1/8))) (*.f64 (pow.f64 16 1/8) x) (*.f64 x (pow.f64 16 1/8)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)))) 3)) (*.f64 (pow.f64 16 1/16) (*.f64 (pow.f64 16 1/16) x)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x)) (*.f64 (*.f64 x (pow.f64 16 1/16)) (pow.f64 16 1/16)) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (pow.f64 16 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 16 1/8) x) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 x 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>=.f64 4 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>=.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 16 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1))) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (pow.f64 16 1/8) 0) (*.f64 x (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1))) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8)) (*.f64 (pow.f64 16 1/16) x)) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) 1) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4)) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1)) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 x 0) (*.f64 (exp.f64 (*.f64 (log.f64 x) 1)) (pow.f64 16 1/8)) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1) 1)) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 3))) (*.f64 (pow.f64 16 1/8) x)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) (*.f64 x (pow.f64 4 1/4)) (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x))

simplify612.0ms (2.3%)

Algorithm
egglog
Counts
108 → 111
Calls
Call 1
Inputs
(pow.f64 (pow.f64 4 1/8) 2)
(pow.f64 (pow.f64 4 3/4) 1/3)
(pow.f64 (pow.f64 16 1/8) 1)
(pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 3)
(pow.f64 (pow.f64 16 1/16) 2)
(pow.f64 16 1/8)
(pow.f64 4 1/4)
(*.f64 (cbrt.f64 (pow.f64 16 1/16)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 16 1/16)))
(*.f64 (pow.f64 2 1/4) (pow.f64 2 1/4))
(*.f64 (pow.f64 16 1/8) 1)
(*.f64 1 (pow.f64 16 1/8))
(*.f64 (pow.f64 1 1/4) (pow.f64 16 1/8))
(*.f64 (pow.f64 16 1/16) (pow.f64 16 1/16))
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2))
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8))) (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8)))) 3))
(*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) (cbrt.f64 (pow.f64 16 1/8)))
(*.f64 (*.f64 (pow.f64 16 1/16) (cbrt.f64 (pow.f64 16 1/16))) (cbrt.f64 (pow.f64 16 1/8)))
(*.f64 (pow.f64 (pow.f64 4 1/16) 3) (pow.f64 4 1/16))
(*.f64 (pow.f64 4 1/16) (pow.f64 (pow.f64 4 1/16) 3))
(exp.f64 (*.f64 (log.f64 4) 1/4))
(exp.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1))
(exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 3) 1/3))
(exp.f64 (*.f64 (*.f64 (log.f64 4) 1) 1/4))
(exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1) 1))
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 2 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 1 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>.f64 (pow.f64 16 1/8) 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 4 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>=.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>=.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (NAN.f64))
(if (and (>.f64 1/8 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 (sqrt.f64 1/8) 0) (>.f64 (sqrt.f64 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 1 0) (>.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 (cbrt.f64 1/8) 0) (>.f64 1/4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>=.f64 1/8 0) (>=.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>=.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>=.f64 2 0) (>=.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (>.f64 2 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>=.f64 1 0) (>=.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(if (and (>.f64 1 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(pow.f64 (pow.f64 4 1/8) 2)
(pow.f64 (pow.f64 4 1/8) 2)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(pow.f64 (*.f64 (pow.f64 16 1/8) x) 1)
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 3)
(pow.f64 (*.f64 (pow.f64 4 3/4) (pow.f64 x 3)) 1/3)
(*.f64 (*.f64 (pow.f64 16 1/8) x) 1)
(*.f64 1 (*.f64 (pow.f64 16 1/8) x))
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2))
(*.f64 (*.f64 x (cbrt.f64 (pow.f64 16 1/8))) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2))
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)))
(*.f64 (*.f64 (pow.f64 16 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2))
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 16 1/8)))
(*.f64 (pow.f64 16 1/8) x)
(*.f64 x (pow.f64 16 1/8))
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)))) 3))
(*.f64 (pow.f64 16 1/16) (*.f64 (pow.f64 16 1/16) x))
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x))
(*.f64 (*.f64 x (pow.f64 16 1/16)) (pow.f64 16 1/16))
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (pow.f64 16 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 16 1/8) x) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 x 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (>=.f64 4 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (>=.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 16 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1))) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 x (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1))) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8)) (*.f64 (pow.f64 16 1/16) x)) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) 1) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4)) x) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1)) x) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 x 0) (*.f64 (exp.f64 (*.f64 (log.f64 x) 1)) (pow.f64 16 1/8)) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1) 1)) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 3))) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 x (pow.f64 4 1/4))
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
Outputs
(pow.f64 (pow.f64 4 1/8) 2)
(sqrt.f64 2)
(pow.f64 (pow.f64 4 3/4) 1/3)
(sqrt.f64 2)
(pow.f64 (pow.f64 16 1/8) 1)
(sqrt.f64 2)
(pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 3)
(sqrt.f64 2)
(pow.f64 (pow.f64 16 1/16) 2)
(sqrt.f64 2)
(pow.f64 16 1/8)
(sqrt.f64 2)
(pow.f64 4 1/4)
(sqrt.f64 2)
(*.f64 (cbrt.f64 (pow.f64 16 1/16)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 16 1/16)))
(sqrt.f64 2)
(*.f64 (pow.f64 2 1/4) (pow.f64 2 1/4))
(sqrt.f64 2)
(*.f64 (pow.f64 16 1/8) 1)
(sqrt.f64 2)
(*.f64 1 (pow.f64 16 1/8))
(sqrt.f64 2)
(*.f64 (pow.f64 1 1/4) (pow.f64 16 1/8))
(sqrt.f64 2)
(*.f64 (pow.f64 16 1/16) (pow.f64 16 1/16))
(sqrt.f64 2)
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2))
(sqrt.f64 2)
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8))) (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8)))) 3))
(sqrt.f64 2)
(*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) (cbrt.f64 (pow.f64 16 1/8)))
(sqrt.f64 2)
(*.f64 (*.f64 (pow.f64 16 1/16) (cbrt.f64 (pow.f64 16 1/16))) (cbrt.f64 (pow.f64 16 1/8)))
(sqrt.f64 2)
(*.f64 (pow.f64 (pow.f64 4 1/16) 3) (pow.f64 4 1/16))
(*.f64 (pow.f64 4 1/16) (pow.f64 4 3/16))
(*.f64 (pow.f64 4 1/16) (pow.f64 (pow.f64 4 1/16) 3))
(*.f64 (pow.f64 4 1/16) (pow.f64 4 3/16))
(exp.f64 (*.f64 (log.f64 4) 1/4))
(sqrt.f64 2)
(exp.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1))
(sqrt.f64 2)
(exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 3) 1/3))
(sqrt.f64 2)
(exp.f64 (*.f64 (*.f64 (log.f64 4) 1) 1/4))
(sqrt.f64 2)
(exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1) 1))
(sqrt.f64 2)
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 2 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 1 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>.f64 (pow.f64 16 1/8) 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 4 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>=.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>=.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (NAN.f64))
(exp.f64 (*.f64 2 (log.f64 (pow.f64 2 1/4))))
(if (and (>.f64 1/8 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 (sqrt.f64 1/8) 0) (>.f64 (sqrt.f64 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 1 0) (>.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 (cbrt.f64 1/8) 0) (>.f64 1/4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>=.f64 1/8 0) (>=.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>=.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>=.f64 2 0) (>=.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (>.f64 2 0) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>=.f64 1 0) (>=.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(if (and (>.f64 1 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8))
(sqrt.f64 2)
(pow.f64 (pow.f64 4 1/8) 2)
(sqrt.f64 2)
(pow.f64 (pow.f64 4 1/8) 2)
(sqrt.f64 2)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (sqrt.f64 2) x)
(pow.f64 (*.f64 (pow.f64 16 1/8) x) 1)
(*.f64 (sqrt.f64 2) x)
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 3)
(*.f64 (sqrt.f64 2) x)
(pow.f64 (*.f64 (pow.f64 4 3/4) (pow.f64 x 3)) 1/3)
(*.f64 (sqrt.f64 2) x)
(*.f64 (*.f64 (pow.f64 16 1/8) x) 1)
(*.f64 (sqrt.f64 2) x)
(*.f64 1 (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2))
(*.f64 (sqrt.f64 2) x)
(*.f64 (*.f64 x (cbrt.f64 (pow.f64 16 1/8))) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2))
(*.f64 (sqrt.f64 2) x)
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)))
(*.f64 (sqrt.f64 2) x)
(*.f64 (*.f64 (pow.f64 16 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2))
(*.f64 (sqrt.f64 2) x)
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 16 1/8)))
(*.f64 (sqrt.f64 2) x)
(*.f64 (pow.f64 16 1/8) x)
(*.f64 (sqrt.f64 2) x)
(*.f64 x (pow.f64 16 1/8))
(*.f64 (sqrt.f64 2) x)
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)))) 3))
(*.f64 (sqrt.f64 2) x)
(*.f64 (pow.f64 16 1/16) (*.f64 (pow.f64 16 1/16) x))
(*.f64 (sqrt.f64 2) x)
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x))
(*.f64 (sqrt.f64 2) x)
(*.f64 (*.f64 x (pow.f64 16 1/16)) (pow.f64 16 1/16))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (pow.f64 16 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 16 1/8) x) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 x 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>=.f64 4 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>=.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 16 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 2 1/4) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1))) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 x (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1))) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8)) (*.f64 (pow.f64 16 1/16) x)) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 2 1/4) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) 1) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4)) x) (*.f64 (pow.f64 16 1/8) x))
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1)) x) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>.f64 x 0) (*.f64 (exp.f64 (*.f64 (log.f64 x) 1)) (pow.f64 16 1/8)) (*.f64 (pow.f64 16 1/8) x))
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x))
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1) 1)) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 3))) (*.f64 (pow.f64 16 1/8) x))
(*.f64 (sqrt.f64 2) x)
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))
(*.f64 (sqrt.f64 2) x)
(*.f64 x (pow.f64 4 1/4))
(*.f64 (sqrt.f64 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (sqrt.f64 2) x)
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)
(*.f64 (sqrt.f64 2) x)

eval48.0ms (0.2%)

Compiler

Compiled 1779 to 1600 computations (10.1% saved)

prune64.0ms (0.2%)

Pruning

6 alts after pruning (3 fresh and 3 done)

PrunedKeptTotal
New1101111
Fresh123
Picked011
Done022
Total1116117
Error
0%
Counts
117 → 6
Alt Table
Click to see full alt table
StatusErrorProgram
1.04%
(fabs.f64 (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))))
0.92%
(fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x))
0.62%
(fabs.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))))
2.09%
(fabs.f64 (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2)))
0.69%
(fabs.f64 (*.f64 (sqrt.f64 2) x))
0.6%
(fabs.f64 (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x)))
Compiler

Compiled 200 to 187 computations (6.5% saved)

regimes23.0ms (0.1%)

Accuracy

Total -30.7b remaining (-8027.4%)

Threshold costs -30.7b (-8027.4%)

Counts
10 → 1
Calls
Call 1
Inputs
(fabs.f64 (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x)))
(fabs.f64 (*.f64 (sqrt.f64 2) x))
(fabs.f64 (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2)))
(fabs.f64 (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))))
(fabs.f64 (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)))
(fabs.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))))
(fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x))
(fabs.f64 (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3))
(fabs.f64 (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))))
(sqrt.f64 (*.f64 (*.f64 2 x) x))
Outputs
(fabs.f64 (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x)))
Calls

3 calls:

7.0ms
x
5.0ms
(sqrt.f64 (*.f64 (*.f64 2 x) x))
4.0ms
(*.f64 (*.f64 2 x) x)
Results
ErrorSegmentsBranch
0.6%1x
0.6%1(sqrt.f64 (*.f64 (*.f64 2 x) x))
0.6%1(*.f64 (*.f64 2 x) x)
Compiler

Compiled 267 to 243 computations (9% saved)

simplify1.0ms (0%)

Stop Event
fuel
Compiler

Compiled 15 to 14 computations (6.7% saved)

soundness0.0ms (0%)

end16.0ms (0.1%)

Compiler

Compiled 15 to 14 computations (6.7% saved)

Profiling

Loading profile data...