Time bar (total: 26.2s)
| 1× | search |
| Probability | Valid | Unknown | Precondition | Infinite | Domain | Can't | Iter |
|---|---|---|---|---|---|---|---|
| 0% | 0% | 100% | 0% | 0% | 0% | 0% | 0 |
| 0% | 0% | 100% | 0% | 0% | 0% | 0% | 1 |
| 0% | 0% | 100% | 0% | 0% | 0% | 0% | 2 |
| 50% | 50% | 50% | 0% | 0% | 0% | 0% | 3 |
| 75% | 75% | 25% | 0% | 0% | 0% | 0% | 4 |
| 87.5% | 87.5% | 12.5% | 0% | 0% | 0% | 0% | 5 |
| 93.8% | 93.7% | 6.2% | 0% | 0% | 0% | 0% | 6 |
| 96.9% | 96.8% | 3.1% | 0% | 0% | 0% | 0% | 7 |
| 98.4% | 98.4% | 1.6% | 0% | 0% | 0% | 0% | 8 |
| 99.2% | 99.2% | 0.8% | 0% | 0% | 0% | 0% | 9 |
| 99.6% | 99.6% | 0.4% | 0% | 0% | 0% | 0% | 10 |
| 99.8% | 99.8% | 0.2% | 0% | 0% | 0% | 0% | 11 |
| 99.9% | 99.9% | 0.1% | 0% | 0% | 0% | 0% | 12 |
Compiled 8 to 6 computations (25% saved)
| 640.0ms | 8256× | body | 256 | valid |
| 0.0ms | 2× | body | 256 | infinite |
| 2× | egglog |
| Inputs |
|---|
0 |
| Outputs |
|---|
0 |
| Inputs |
|---|
(sqrt.f64 (*.f64 (*.f64 2 x) x)) |
| Outputs |
|---|
(sqrt.f64 (*.f64 (*.f64 2 x) x)) |
(fabs.f64 (*.f64 (sqrt.f64 2) x)) |
Compiled 7 to 5 computations (28.6% saved)
| 1× | egglog |
| Inputs |
|---|
(sqrt.f64 (*.f64 (*.f64 2 x) x)) |
| Outputs |
|---|
(sqrt.f64 (*.f64 (*.f64 2 x) x)) |
(fabs.f64 (*.f64 (sqrt.f64 2) x)) |
Compiled 12 to 9 computations (25% saved)
3 alts after pruning (3 fresh and 0 done)
| Pruned | Kept | Total | |
|---|---|---|---|
| New | 0 | 2 | 2 |
| Fresh | 0 | 1 | 1 |
| Picked | 0 | 0 | 0 |
| Done | 0 | 0 | 0 |
| Total | 0 | 3 | 3 |
| Status | Error | Program |
|---|---|---|
| 47.28% | (sqrt.f64 (*.f64 (*.f64 2 x) x)) | |
| ▶ | 0.69% | (fabs.f64 (*.f64 (sqrt.f64 2) x)) |
Compiled 26 to 20 computations (23.1% saved)
Found 1 expressions with local error:
| New | Error | Program |
|---|---|---|
| ✓ | 0.69% | (*.f64 (sqrt.f64 2) x) |
Compiled 14 to 11 computations (21.4% saved)
3 calls:
| Time | Variable | Point | Expression | |
|---|---|---|---|---|
| 1.0ms | x | @ | 0 | (*.f64 (sqrt.f64 2) x) |
| 0.0ms | x | @ | inf | (*.f64 (sqrt.f64 2) x) |
| 0.0ms | x | @ | -inf | (*.f64 (sqrt.f64 2) x) |
| 1× | batch-egg-rewrite |
| Inputs |
|---|
(*.f64 (sqrt.f64 2) x) |
| Outputs |
|---|
((*.f64 (sqrt.f64 2) x) (+.f64 (*.f64 1/2 (*.f64 (sqrt.f64 2) x)) (*.f64 1/2 (*.f64 (sqrt.f64 2) x))) (+.f64 (*.f64 (*.f64 (sqrt.f64 2) x) 1/2) (*.f64 (*.f64 (sqrt.f64 2) x) 1/2)) (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3) (pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 1/3) (pow.f64 (*.f64 (sqrt.f64 2) x) 1) (/.f64 (*.f64 (sqrt.f64 2) x) 1) (if (and (>.f64 x 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 x 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>=.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>=.f64 1 0) (>=.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (sqrt.f64 2) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (exp.f64 (log.f64 (*.f64 (sqrt.f64 2) x))) (*.f64 (sqrt.f64 2) x)) (if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x)) (if (and (>=.f64 (sqrt.f64 2) 0) (>=.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>=.f64 (cbrt.f64 2) 0) (>=.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2)))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (sqrt.f64 8) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 2 (pow.f64 x 2)) 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 (*.f64 2 (pow.f64 x 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (sqrt.f64 8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 (sqrt.f64 2) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 (cbrt.f64 (sqrt.f64 2)) x) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 x) 2) (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (*.f64 (cbrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 1 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) (+.f64 2 1)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 1/3 3)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 3 1/3)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 3)) (*.f64 (sqrt.f64 2) x)) (if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3))) 1/3)) (*.f64 (sqrt.f64 2) x)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) (*.f64 x (pow.f64 2 1/2)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
| 1× | egglog |
| Inputs |
|---|
(*.f64 (sqrt.f64 2) x) |
(+.f64 (*.f64 1/2 (*.f64 (sqrt.f64 2) x)) (*.f64 1/2 (*.f64 (sqrt.f64 2) x))) |
(+.f64 (*.f64 (*.f64 (sqrt.f64 2) x) 1/2) (*.f64 (*.f64 (sqrt.f64 2) x) 1/2)) |
(pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3) |
(pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 1/3) |
(pow.f64 (*.f64 (sqrt.f64 2) x) 1) |
(/.f64 (*.f64 (sqrt.f64 2) x) 1) |
(if (and (>.f64 x 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>=.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 1 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>=.f64 1 0) (>=.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (sqrt.f64 2) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (exp.f64 (log.f64 (*.f64 (sqrt.f64 2) x))) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x)) |
(if (and (>=.f64 (sqrt.f64 2) 0) (>=.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>=.f64 (cbrt.f64 2) 0) (>=.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2)))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (sqrt.f64 8) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (*.f64 2 (pow.f64 x 2)) 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 (*.f64 2 (pow.f64 x 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (sqrt.f64 8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (*.f64 (sqrt.f64 2) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (*.f64 (cbrt.f64 (sqrt.f64 2)) x) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 x) 2) (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (*.f64 (cbrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 1 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) (+.f64 2 1)) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 1/3 3)) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 3 1/3)) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 3)) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3))) 1/3)) (*.f64 (sqrt.f64 2) x)) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 x (pow.f64 2 1/2)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (sqrt.f64 2) x) |
| Outputs |
|---|
(*.f64 (sqrt.f64 2) x) |
(*.f64 x (sqrt.f64 2)) |
(+.f64 (*.f64 1/2 (*.f64 (sqrt.f64 2) x)) (*.f64 1/2 (*.f64 (sqrt.f64 2) x))) |
(*.f64 x (sqrt.f64 2)) |
(+.f64 (*.f64 (*.f64 (sqrt.f64 2) x) 1/2) (*.f64 (*.f64 (sqrt.f64 2) x) 1/2)) |
(*.f64 x (sqrt.f64 2)) |
(pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3) |
(*.f64 x (sqrt.f64 2)) |
(pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 1/3) |
(*.f64 x (sqrt.f64 2)) |
(pow.f64 (*.f64 (sqrt.f64 2) x) 1) |
(*.f64 x (sqrt.f64 2)) |
(/.f64 (*.f64 (sqrt.f64 2) x) 1) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 x 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>=.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 1 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>=.f64 1 0) (>=.f64 2 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (sqrt.f64 2) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 2 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (exp.f64 (log.f64 (*.f64 (sqrt.f64 2) x))) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 x (sqrt.f64 2))) |
(if (and (>=.f64 (sqrt.f64 2) 0) (>=.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>=.f64 (cbrt.f64 2) 0) (>=.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2)))) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (sqrt.f64 8) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (*.f64 2 (pow.f64 x 2)) 0) (>.f64 (*.f64 (sqrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 (*.f64 2 (pow.f64 x 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (sqrt.f64 8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (*.f64 (sqrt.f64 2) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 (*.f64 2 (pow.f64 x 2))) 0) (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (*.f64 (cbrt.f64 (sqrt.f64 2)) x) 0) (>.f64 (cbrt.f64 2) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 x) 2) (sqrt.f64 2)) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (cbrt.f64 (sqrt.f64 2)) 0) (>.f64 (*.f64 (cbrt.f64 2) x) 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (and (>.f64 (*.f64 (sqrt.f64 2) x) 0) (>.f64 1 0)) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) (+.f64 2 1)) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 1/3 3)) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (*.f64 (sqrt.f64 2) x) 0) (pow.f64 (*.f64 (sqrt.f64 2) x) (*.f64 3 1/3)) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (*.f64 (sqrt.f64 2) x) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x))) 3)) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(if (>.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3)) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (sqrt.f64 8) (pow.f64 x 3))) 1/3)) (*.f64 (sqrt.f64 2) x)) |
(*.f64 x (sqrt.f64 2)) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 x (pow.f64 2 1/2)) |
(*.f64 x (sqrt.f64 2)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 x (sqrt.f64 2)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 x (sqrt.f64 2)) |
Compiled 983 to 829 computations (15.7% saved)
5 alts after pruning (4 fresh and 1 done)
| Pruned | Kept | Total | |
|---|---|---|---|
| New | 53 | 3 | 56 |
| Fresh | 0 | 1 | 1 |
| Picked | 0 | 1 | 1 |
| Done | 0 | 0 | 0 |
| Total | 53 | 5 | 58 |
| Status | Error | Program |
|---|---|---|
| 47.28% | (sqrt.f64 (*.f64 (*.f64 2 x) x)) | |
| 2.2% | (fabs.f64 (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3)) | |
| 0.92% | (fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)) | |
| ▶ | 0.73% | (fabs.f64 (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))) |
| ✓ | 0.69% | (fabs.f64 (*.f64 (sqrt.f64 2) x)) |
Compiled 78 to 67 computations (14.1% saved)
Found 2 expressions with local error:
| New | Error | Program |
|---|---|---|
| ✓ | 0.32% | (*.f64 (pow.f64 4 1/8) x) |
| ✓ | 0.5% | (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
Compiled 31 to 27 computations (12.9% saved)
6 calls:
| Time | Variable | Point | Expression | |
|---|---|---|---|---|
| 32.0ms | x | @ | 0 | (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
| 0.0ms | x | @ | inf | (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
| 0.0ms | x | @ | -inf | (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
| 0.0ms | x | @ | inf | (*.f64 (pow.f64 4 1/8) x) |
| 0.0ms | x | @ | -inf | (*.f64 (pow.f64 4 1/8) x) |
| 1× | batch-egg-rewrite |
| Inputs |
|---|
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) x) |
| Outputs |
|---|
((*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 (*.f64 (pow.f64 4 1/4) x) 1) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 3) (pow.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 1/3) (if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) (exp.f64 (log.f64 x))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/4) x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>=.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>=.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 4 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 1 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x))) 0) (>.f64 (cbrt.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 0)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) (pow.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 1/3)) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x)) 3))) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))))) (*.f64 (pow.f64 4 1/4) x)) (if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (pow.f64 16 1/32) 3)))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 (pow.f64 4 1/4) x)) (if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 1) (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) (*.f64 (pow.f64 4 1/4) x)) (*.f64 x (pow.f64 16 1/8)) (*.f64 (pow.f64 4 1/8) (*.f64 x (pow.f64 4 1/8))) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))) |
((*.f64 (pow.f64 4 1/8) x) (pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 3) (pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 1/3) (pow.f64 (*.f64 x (pow.f64 2 1/4)) 1) (if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 x 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 x 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 x))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>=.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (pow.f64 2 1/4) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 0)) (*.f64 (cbrt.f64 x) (pow.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 1)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 0)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) (pow.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 1)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 1 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (pow.f64 16 1/32) (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1) (pow.f64 16 1/32)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0)) (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 1 1/3) (*.f64 x (pow.f64 2 1/4))) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (+.f64 2 1)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 3 1/3)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 1/3 3)) (*.f64 x (pow.f64 2 1/4))) (if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))) 3))) (*.f64 x (pow.f64 2 1/4))) (*.f64 (cbrt.f64 x) (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2))) (*.f64 1 (*.f64 x (pow.f64 2 1/4))) (*.f64 x (pow.f64 4 1/8)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
| 1× | egglog |
| Inputs |
|---|
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(pow.f64 (*.f64 (pow.f64 4 1/4) x) 1) |
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 3) |
(pow.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 1/3) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) (exp.f64 (log.f64 x))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/4) x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>=.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (pow.f64 4 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 1 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x))) 0) (>.f64 (cbrt.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 0)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) (pow.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 1/3)) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x)) 3))) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))))) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (pow.f64 16 1/32) 3)))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 1) (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 x (pow.f64 16 1/8)) |
(*.f64 (pow.f64 4 1/8) (*.f64 x (pow.f64 4 1/8))) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) x) |
(pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 3) |
(pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 1/3) |
(pow.f64 (*.f64 x (pow.f64 2 1/4)) 1) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 x 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 x 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 x))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (>=.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (pow.f64 2 1/4) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 0)) (*.f64 (cbrt.f64 x) (pow.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 0)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) (pow.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 1 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (pow.f64 16 1/32) (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1) (pow.f64 16 1/32)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0)) (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 1 1/3) (*.f64 x (pow.f64 2 1/4))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (+.f64 2 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 3 1/3)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 1/3 3)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))) 3))) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2))) |
(*.f64 1 (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 4 1/8)) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (pow.f64 4 1/8) x) |
| Outputs |
|---|
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(pow.f64 (*.f64 (pow.f64 4 1/4) x) 1) |
(*.f64 (pow.f64 4 1/4) x) |
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 3) |
(*.f64 (pow.f64 4 1/4) x) |
(pow.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 1/3) |
(cbrt.f64 (*.f64 (pow.f64 x 3) (pow.f64 16 3/8))) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) (exp.f64 (log.f64 x))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/4) x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>=.f64 (pow.f64 2 1/4) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (pow.f64 4 1/4) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/4) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 1 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x))) 0) (>.f64 (cbrt.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 (*.f64 (pow.f64 16 3/8) (pow.f64 x 3)) 0) (*.f64 (pow.f64 4 1/4) x) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (>.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 0)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) (pow.f64 (pow.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) x)) 2) 3) 1/3)) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x)) 3))) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))))) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4)))) (pow.f64 2 1/4)) (*.f64 (pow.f64 4 1/4) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/4) x) 0) (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/4) x))) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 2 1/4) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8)))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (pow.f64 16 1/32) 3)))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 16 3/32)))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/4) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 x (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 4 1/4)))) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (cbrt.f64 2) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (cbrt.f64 (pow.f64 4 1/4)) (*.f64 (cbrt.f64 2) x)) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 1) (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) (*.f64 (pow.f64 4 1/4) x)) |
(if (and (>.f64 (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2))) 0)) (*.f64 (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 2 1/4)) (cbrt.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)))) (*.f64 (pow.f64 4 1/4) x)) |
(*.f64 x (pow.f64 16 1/8)) |
(*.f64 (pow.f64 4 1/8) (*.f64 x (pow.f64 4 1/8))) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/4) x) |
(*.f64 (pow.f64 4 1/8) x) |
(pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 3) |
(*.f64 x (pow.f64 2 1/4)) |
(pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 1/3) |
(cbrt.f64 (*.f64 (pow.f64 x 3) (pow.f64 4 3/8))) |
(pow.f64 (*.f64 x (pow.f64 2 1/4)) 1) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (pow.f64 2 1/4) 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 x 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 x 0) (*.f64 (pow.f64 2 1/4) (exp.f64 (log.f64 x))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>=.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 (pow.f64 2 1/4) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 2 1/4) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (exp.f64 (log.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 4 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 0)) (*.f64 (cbrt.f64 x) (pow.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2)) 0)) (*.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 0)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) (pow.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x) 0)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) (*.f64 (cbrt.f64 (pow.f64 4 1/4)) x)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x))) 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 1 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (pow.f64 16 1/32) (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 1) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 16 1/32) x) 1) (pow.f64 16 1/32)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 1) (cbrt.f64 (pow.f64 4 1/4))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x) 0) (>.f64 (cbrt.f64 (pow.f64 4 1/4)) 0)) (*.f64 (cbrt.f64 (pow.f64 4 1/4)) (*.f64 (cbrt.f64 (pow.f64 2 1/4)) x)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (pow.f64 4 3/8) 0) (>.f64 (pow.f64 x 3) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (*.f64 (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3) (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)) 0) (>.f64 (*.f64 x (pow.f64 2 1/4)) 0)) (cbrt.f64 (*.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)) (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 0)) (*.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (pow.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)) 1/3)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (>.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)) 0)) (cbrt.f64 (*.f64 (*.f64 (pow.f64 4 1/4) (pow.f64 x 2)) (*.f64 x (pow.f64 2 1/4)))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0)) (*.f64 (pow.f64 1 1/3) (*.f64 x (pow.f64 2 1/4))) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 x 3) (pow.f64 4 3/8)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(if (and (>.f64 (pow.f64 x 3) 0) (>.f64 (pow.f64 4 3/8) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4)))) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/4) (*.f64 x x)))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 2 1/4)) 0) (>.f64 (cbrt.f64 x) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (pow.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) (+.f64 2 1)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (pow.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) (*.f64 1/3 1)) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (*.f64 (pow.f64 x 3) (pow.f64 4 3/8)) 0) (cbrt.f64 (*.f64 (pow.f64 x 3) (pow.f64 4 3/8))) (*.f64 x (pow.f64 2 1/4))) |
(if (>.f64 (cbrt.f64 (*.f64 x (pow.f64 2 1/4))) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 3 1/3)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 (*.f64 (pow.f64 4 3/8) (pow.f64 x 3)) 0) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (pow.f64 (*.f64 x (pow.f64 2 1/4)) (*.f64 1/3 3)) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(if (>.f64 (*.f64 x (pow.f64 2 1/4)) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 x (pow.f64 2 1/4))) 3))) (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 2 1/4) (pow.f64 (cbrt.f64 x) 2))) |
(*.f64 (*.f64 (pow.f64 2 1/4) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) |
(*.f64 1 (*.f64 x (pow.f64 2 1/4))) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 x (pow.f64 4 1/8)) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (pow.f64 4 1/8) x) |
Compiled 3223 to 2813 computations (12.7% saved)
6 alts after pruning (4 fresh and 2 done)
| Pruned | Kept | Total | |
|---|---|---|---|
| New | 127 | 1 | 128 |
| Fresh | 0 | 3 | 3 |
| Picked | 0 | 1 | 1 |
| Done | 0 | 1 | 1 |
| Total | 127 | 6 | 133 |
| Status | Error | Program |
|---|---|---|
| 47.28% | (sqrt.f64 (*.f64 (*.f64 2 x) x)) | |
| 2.2% | (fabs.f64 (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3)) | |
| 0.92% | (fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)) | |
| ▶ | 0.62% | (fabs.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))) |
| ✓ | 0.73% | (fabs.f64 (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))) |
| ✓ | 0.69% | (fabs.f64 (*.f64 (sqrt.f64 2) x)) |
Compiled 139 to 125 computations (10.1% saved)
Found 4 expressions with local error:
| New | Error | Program |
|---|---|---|
| ✓ | 0.32% | (*.f64 x (pow.f64 2 1/4)) |
| ✓ | 0.44% | (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
| ✓ | 0.5% | (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
| ✓ | 1.56% | (cbrt.f64 16) |
Compiled 181 to 171 computations (5.5% saved)
9 calls:
| Time | Variable | Point | Expression | |
|---|---|---|---|---|
| 66.0ms | x | @ | 0 | (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
| 13.0ms | x | @ | 0 | (*.f64 x (pow.f64 2 1/4)) |
| 1.0ms | x | @ | inf | (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
| 1.0ms | x | @ | 0 | (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
| 1.0ms | x | @ | inf | (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
| 1× | batch-egg-rewrite |
| Inputs |
|---|
(cbrt.f64 16) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 x (pow.f64 2 1/4)) |
| Outputs |
|---|
((cbrt.f64 16) (pow.f64 (cbrt.f64 16) 1) (pow.f64 (cbrt.f64 (cbrt.f64 16)) 3) (pow.f64 16 1/3) (pow.f64 16 (*.f64 1/3 1)) (pow.f64 4 (+.f64 1/3 1/3)) (pow.f64 4 (*.f64 2 1/3)) (pow.f64 (cbrt.f64 4) 2) (*.f64 (cbrt.f64 4) (cbrt.f64 4)) (*.f64 (cbrt.f64 16) 1) (*.f64 1 (cbrt.f64 16)) (*.f64 (pow.f64 1 1/3) (cbrt.f64 16)) (*.f64 (cbrt.f64 1) (cbrt.f64 16)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 (cbrt.f64 (*.f64 16 16)))) (*.f64 (cbrt.f64 (cbrt.f64 4)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 4))) (*.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) (cbrt.f64 (cbrt.f64 16))) (*.f64 (*.f64 (cbrt.f64 4) (cbrt.f64 (cbrt.f64 4))) (cbrt.f64 (cbrt.f64 16))) (exp.f64 (*.f64 (log.f64 16) 1/3)) (if (and (>.f64 4 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 1 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 (cbrt.f64 16)) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 16 0) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 4 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>=.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16)) (if (>=.f64 4 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/3)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 4) 0) (pow.f64 (cbrt.f64 4) (+.f64 1 1)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 16) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 1)) (cbrt.f64 16)) (if (and (>.f64 1 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>=.f64 1 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 1 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>=.f64 16 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>=.f64 4 0) (>=.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 (cbrt.f64 4)) 0) (>.f64 (cbrt.f64 (cbrt.f64 16)) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 4 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 2 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>.f64 2 0) (>.f64 2 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16)) (if (>=.f64 2 0) (cbrt.f64 16) (cbrt.f64 16)) (if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (*.f64 2 1/3)) (cbrt.f64 16)) (if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (+.f64 1/3 1/3)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (*.f64 2 1/3)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (+.f64 1/3 1/3)) (cbrt.f64 16)) (if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (cbrt.f64 16) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) (*.f64 1/3 1)) (cbrt.f64 16)) (if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) 1/3) (cbrt.f64 16)) (if (and (>=.f64 16 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) (cbrt.f64 16) (cbrt.f64 16)) |
((*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3) (pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 3) 1/3) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2)) (*.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) (pow.f64 4 1/8))) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (*.f64 1 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (pow.f64 4 1/16)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/8)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)) (*.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/8) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3)) 1/3) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) 1) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (>.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 x (pow.f64 16 1/16)))) (*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))))) (*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (pow.f64 16 1/32)) x) (*.f64 x (pow.f64 16 1/16)))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))) |
((*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1) (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3) (pow.f64 (pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 3) 1/3) (*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (cbrt.f64 (*.f64 (pow.f64 16 1/32) x))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2)) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) (*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) x) (*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 1) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) 2)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2)) (*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 (cbrt.f64 4) 1/16)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))) (*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 1 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 x (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 16 1/64) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (cbrt.f64 (pow.f64 16 1/32)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16))) (if (>.f64 (cbrt.f64 16) 0) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (exp.f64 (*.f64 1/16 (log.f64 (cbrt.f64 16))))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 0) (>.f64 (pow.f64 (cbrt.f64 16) 1/16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 1 0) (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) 1) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3)) 1/3) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/32)) 1))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 (cbrt.f64 16) 1/32) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/32))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (pow.f64 16 1/64) 0) (>.f64 (pow.f64 16 1/64) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>=.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 16 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 1 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/32)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
((*.f64 x (pow.f64 2 1/4)) (pow.f64 (*.f64 (pow.f64 4 1/8) x) 1) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 3) (pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) x) 3) 1/3) (*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2)) (*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 4 1/8))) (*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) x)) (*.f64 1 (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (*.f64 x (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)) (*.f64 x (pow.f64 4 1/8)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) x))) (*.f64 (*.f64 (pow.f64 4 1/8) x) 1) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))) (if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) x) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3)) 1/3) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) 1) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3))) (*.f64 (pow.f64 4 1/8) x)) (if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 x (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) x)) (if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 x (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (>=.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) (*.f64 x (pow.f64 16 1/16)) (*.f64 x (pow.f64 2 1/4)) (*.f64 x (pow.f64 2 1/4))) |
| 1× | egglog |
| Inputs |
|---|
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 (pow.f64 2 1/4) x) |
(cbrt.f64 16) |
(pow.f64 (cbrt.f64 16) 1) |
(pow.f64 (cbrt.f64 (cbrt.f64 16)) 3) |
(pow.f64 16 1/3) |
(pow.f64 16 (*.f64 1/3 1)) |
(pow.f64 4 (+.f64 1/3 1/3)) |
(pow.f64 4 (*.f64 2 1/3)) |
(pow.f64 (cbrt.f64 4) 2) |
(*.f64 (cbrt.f64 4) (cbrt.f64 4)) |
(*.f64 (cbrt.f64 16) 1) |
(*.f64 1 (cbrt.f64 16)) |
(*.f64 (pow.f64 1 1/3) (cbrt.f64 16)) |
(*.f64 (cbrt.f64 1) (cbrt.f64 16)) |
(*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 (cbrt.f64 (*.f64 16 16)))) |
(*.f64 (cbrt.f64 (cbrt.f64 4)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 4))) |
(*.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) (cbrt.f64 (cbrt.f64 16))) |
(*.f64 (*.f64 (cbrt.f64 4) (cbrt.f64 (cbrt.f64 4))) (cbrt.f64 (cbrt.f64 16))) |
(exp.f64 (*.f64 (log.f64 16) 1/3)) |
(if (and (>.f64 4 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 1 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 16)) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 16 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 4 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>=.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>=.f64 4 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/3)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (cbrt.f64 4) (+.f64 1 1)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 1)) (cbrt.f64 16)) |
(if (and (>.f64 1 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>=.f64 1 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>=.f64 16 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>=.f64 4 0) (>=.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 4)) 0) (>.f64 (cbrt.f64 (cbrt.f64 16)) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 4 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 2 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 2 0) (>.f64 2 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>=.f64 2 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (*.f64 2 1/3)) (cbrt.f64 16)) |
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (+.f64 1/3 1/3)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (*.f64 2 1/3)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (+.f64 1/3 1/3)) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) (*.f64 1/3 1)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) 1/3) (cbrt.f64 16)) |
(if (and (>=.f64 16 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(cbrt.f64 16) |
(cbrt.f64 16) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
(pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1) |
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3) |
(pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 3) 1/3) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2)) |
(*.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) (pow.f64 4 1/8))) |
(*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 1 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) |
(*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2)) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (pow.f64 4 1/16)) |
(*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/8)) |
(*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)) |
(*.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/8) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3)) 1/3) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) 1) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (>.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 x (pow.f64 16 1/16)))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (pow.f64 16 1/32)) x) (*.f64 x (pow.f64 16 1/16)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1) |
(pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3) |
(pow.f64 (pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 3) 1/3) |
(*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (cbrt.f64 (*.f64 (pow.f64 16 1/32) x))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2)) |
(*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) |
(*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) x) |
(*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 1) (pow.f64 (cbrt.f64 16) 1/16)) |
(*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) 2)) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2)) |
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 (cbrt.f64 4) 1/16)) |
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))) |
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1) |
(*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 1 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2)) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 x (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 16 1/32) x))) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2) (*.f64 (pow.f64 16 1/32) x))) |
(*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 16 1/64) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (cbrt.f64 (pow.f64 16 1/32)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16))) |
(if (>.f64 (cbrt.f64 16) 0) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (exp.f64 (*.f64 1/16 (log.f64 (cbrt.f64 16))))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 0) (>.f64 (pow.f64 (cbrt.f64 16) 1/16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) 1) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3)) 1/3) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/32)) 1))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 (cbrt.f64 16) 1/32) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/32))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (pow.f64 16 1/64) 0) (>.f64 (pow.f64 16 1/64) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>=.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 16 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 1 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/32)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 x (pow.f64 2 1/4)) |
(pow.f64 (*.f64 (pow.f64 4 1/8) x) 1) |
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 3) |
(pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) x) 3) 1/3) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2)) |
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 4 1/8))) |
(*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) x)) |
(*.f64 1 (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) |
(*.f64 (*.f64 x (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)) |
(*.f64 x (pow.f64 4 1/8)) |
(*.f64 (*.f64 x (pow.f64 4 1/16)) (pow.f64 4 1/16)) |
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) x))) |
(*.f64 (*.f64 (pow.f64 4 1/8) x) 1) |
(*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))) |
(if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) x) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3)) 1/3) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) 1) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 x (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) x)) |
(if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 x (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>=.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 x (pow.f64 16 1/16)) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 x (pow.f64 2 1/4)) |
| Outputs |
|---|
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)))) (*.f64 (pow.f64 2 1/4) x))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 (pow.f64 2 1/4) x) |
(*.f64 x (pow.f64 2 1/4)) |
(cbrt.f64 16) |
(pow.f64 (cbrt.f64 16) 1) |
(cbrt.f64 16) |
(pow.f64 (cbrt.f64 (cbrt.f64 16)) 3) |
(cbrt.f64 16) |
(pow.f64 16 1/3) |
(cbrt.f64 16) |
(pow.f64 16 (*.f64 1/3 1)) |
(cbrt.f64 16) |
(pow.f64 4 (+.f64 1/3 1/3)) |
(pow.f64 4 2/3) |
(pow.f64 4 (*.f64 2 1/3)) |
(pow.f64 4 2/3) |
(pow.f64 (cbrt.f64 4) 2) |
(cbrt.f64 (*.f64 4 4)) |
(*.f64 (cbrt.f64 4) (cbrt.f64 4)) |
(cbrt.f64 (*.f64 4 4)) |
(*.f64 (cbrt.f64 16) 1) |
(cbrt.f64 16) |
(*.f64 1 (cbrt.f64 16)) |
(cbrt.f64 16) |
(*.f64 (pow.f64 1 1/3) (cbrt.f64 16)) |
(cbrt.f64 16) |
(*.f64 (cbrt.f64 1) (cbrt.f64 16)) |
(cbrt.f64 16) |
(*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 (cbrt.f64 (*.f64 16 16)))) |
(cbrt.f64 (*.f64 (cbrt.f64 16) (cbrt.f64 256))) |
(*.f64 (cbrt.f64 (cbrt.f64 4)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (cbrt.f64 4))) |
(*.f64 (cbrt.f64 (cbrt.f64 4)) (cbrt.f64 (*.f64 (cbrt.f64 16) 4))) |
(*.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) (cbrt.f64 (cbrt.f64 16))) |
(cbrt.f64 (*.f64 (cbrt.f64 16) (cbrt.f64 256))) |
(*.f64 (*.f64 (cbrt.f64 4) (cbrt.f64 (cbrt.f64 4))) (cbrt.f64 (cbrt.f64 16))) |
(*.f64 (cbrt.f64 (*.f64 4 (cbrt.f64 4))) (cbrt.f64 (cbrt.f64 16))) |
(exp.f64 (*.f64 (log.f64 16) 1/3)) |
(cbrt.f64 16) |
(if (and (>.f64 4 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 1 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 16)) 0) (>.f64 (cbrt.f64 (cbrt.f64 (*.f64 16 16))) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 16)) 0) (>.f64 (cbrt.f64 (cbrt.f64 256)) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 16 0) (cbrt.f64 16) (cbrt.f64 16)) |
(cbrt.f64 16) |
(if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 4 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>=.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>=.f64 4 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (cbrt.f64 (cbrt.f64 16)) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/3)) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 256) 0)) (cbrt.f64 (*.f64 (cbrt.f64 16) (cbrt.f64 256))) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (cbrt.f64 4) (+.f64 1 1)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (cbrt.f64 (*.f64 4 4)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 1)) (cbrt.f64 16)) |
(cbrt.f64 16) |
(if (and (>.f64 1 0) (>.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>=.f64 1 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 1 0) (>.f64 (cbrt.f64 4) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>=.f64 16 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>=.f64 4 0) (>=.f64 4 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 (cbrt.f64 4)) 0) (>.f64 (cbrt.f64 (cbrt.f64 16)) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 4 0) (>.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 2 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 2 0) (>.f64 2 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>=.f64 2 0) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (*.f64 2 1/3)) (cbrt.f64 16)) |
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 256) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 256))) 2/3) (cbrt.f64 16)) |
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 (*.f64 16 16)) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 (*.f64 16 16)))) (+.f64 1/3 1/3)) (cbrt.f64 16)) |
(if (and (>=.f64 (cbrt.f64 16) 0) (>=.f64 (cbrt.f64 256) 0)) (pow.f64 (*.f64 (sqrt.f64 (cbrt.f64 16)) (sqrt.f64 (cbrt.f64 256))) 2/3) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (*.f64 2 1/3)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3) 2/3)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3)) (+.f64 1/3 1/3)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 4) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (cbrt.f64 4)) 3) 2/3)) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 256) 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) (*.f64 1/3 1)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (cbrt.f64 16))) 3)) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (cbrt.f64 16)) 3)) 1/3) (cbrt.f64 16)) |
(if (>.f64 (cbrt.f64 16) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (cbrt.f64 16))) 3)) (cbrt.f64 16)) |
(if (and (>=.f64 16 0) (>=.f64 16 0)) (cbrt.f64 16) (cbrt.f64 16)) |
(cbrt.f64 16) |
(cbrt.f64 16) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 3) 1/3) |
(cbrt.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 3)) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2)) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(*.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) (pow.f64 4 1/8))) |
(*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 1 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2)) |
(*.f64 (pow.f64 4 1/8) (*.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (pow.f64 4 1/16)) |
(*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/8)) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)) |
(*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (cbrt.f64 (pow.f64 4 1/8)) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2))) |
(*.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/8) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3)) 1/3) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) 3)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1)) 1) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 3))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) 3)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (log.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (>.f64 (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (exp.f64 (*.f64 1/16 (log.f64 4)))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (pow.f64 2 1/4)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)) (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 x (pow.f64 16 1/16)))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 16 1/16)))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 16 1/32))) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (pow.f64 16 1/32)) x) (*.f64 x (pow.f64 16 1/16)))) |
(*.f64 (pow.f64 16 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 16 1/16)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 x (pow.f64 2 1/4)))) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(pow.f64 (pow.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 3) 1/3) |
(cbrt.f64 (pow.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 3)) |
(*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (cbrt.f64 (*.f64 (pow.f64 16 1/32) x))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2)) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2))) |
(*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 16 1/32)) x) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 1) (pow.f64 (cbrt.f64 16) 1/16)) |
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16)) |
(*.f64 (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) 2)) |
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (*.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 (cbrt.f64 (pow.f64 (cbrt.f64 16) 1/16)) 2))) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2)) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2))) |
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (pow.f64 (cbrt.f64 16) 1/16)) (pow.f64 (cbrt.f64 4) 1/16)) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 1) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16)))) |
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16)) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 1 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2)) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/32) x)) 2) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 x (*.f64 (pow.f64 16 1/32) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (pow.f64 (cbrt.f64 4) 1/16) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 (pow.f64 16 1/32) x))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 2) (*.f64 (pow.f64 16 1/32) x))) |
(*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 16 1/64) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 16 1/64) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16))))) |
(*.f64 (cbrt.f64 (pow.f64 16 1/32)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (cbrt.f64 (pow.f64 16 1/32)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16))))) |
(*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (cbrt.f64 16) 1/16)) |
(*.f64 (pow.f64 16 1/32) (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(if (>.f64 (cbrt.f64 16) 0) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (exp.f64 (*.f64 1/16 (log.f64 (cbrt.f64 16))))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (cbrt.f64 16) 0) (*.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) (pow.f64 (exp.f64 1/16) (log.f64 (cbrt.f64 16)))) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (>.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 16 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 0) (>.f64 (pow.f64 (cbrt.f64 16) 1/16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (*.f64 x (*.f64 (pow.f64 16 1/32) (pow.f64 (cbrt.f64 4) 1/16))) 0) (>.f64 (pow.f64 (cbrt.f64 16) 1/16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (pow.f64 16 1/32) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16))) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) 2) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (*.f64 (pow.f64 16 1/32) x) 0) (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) 0) (>.f64 (*.f64 (pow.f64 16 1/32) x) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 1)) 1) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3)) 1/3) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))) 3)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) 3))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)))) 3)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/32)) 1))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16))) (exp.f64 (*.f64 1/32 (log.f64 16)))) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 (*.f64 16 16)) 0)) (*.f64 (*.f64 (*.f64 x (pow.f64 (cbrt.f64 4) 1/16)) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 (cbrt.f64 16) 1/32) (pow.f64 (cbrt.f64 (*.f64 16 16)) 1/32))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (cbrt.f64 16) 0) (>.f64 (cbrt.f64 256) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 16) 1/16) (*.f64 x (pow.f64 (cbrt.f64 4) 1/16))) (*.f64 (pow.f64 (cbrt.f64 16) 1/32) (pow.f64 (cbrt.f64 256) 1/32))) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (pow.f64 16 1/64) 0) (>.f64 (pow.f64 16 1/64) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (pow.f64 16 1/64) 0) (>.f64 (pow.f64 16 1/64) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (>=.f64 16 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>=.f64 16 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (>.f64 (pow.f64 16 1/32) 0) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 16 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 16 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 1 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 1 0) (>.f64 16 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/32)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/32)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/32)) 2) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)))) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/32) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x))) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) |
(*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16)) (*.f64 (pow.f64 16 1/32) x)) |
(*.f64 x (pow.f64 2 1/4)) |
(pow.f64 (*.f64 (pow.f64 4 1/8) x) 1) |
(*.f64 (pow.f64 4 1/8) x) |
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 3) |
(*.f64 (pow.f64 4 1/8) x) |
(pow.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) x) 3) 1/3) |
(cbrt.f64 (pow.f64 (*.f64 (pow.f64 4 1/8) x) 3)) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2)) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 4 1/8))) |
(*.f64 (cbrt.f64 (pow.f64 4 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) x)) |
(*.f64 1 (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) |
(*.f64 (pow.f64 4 1/8) (*.f64 (cbrt.f64 x) (pow.f64 (cbrt.f64 x) 2))) |
(*.f64 (*.f64 x (cbrt.f64 (pow.f64 4 1/8))) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2)) |
(*.f64 x (*.f64 (cbrt.f64 (pow.f64 4 1/8)) (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2))) |
(*.f64 x (pow.f64 4 1/8)) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (*.f64 x (pow.f64 4 1/16)) (pow.f64 4 1/16)) |
(*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))) |
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 4 1/8) x))) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (*.f64 (pow.f64 4 1/8) x) 1) |
(*.f64 (pow.f64 4 1/8) x) |
(*.f64 (pow.f64 4 1/16) (*.f64 x (pow.f64 4 1/16))) |
(if (>.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (pow.f64 4 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) x) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 4 1/8) x) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 4 1/8) x)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) x) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3)) 1/3) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x))) 3)) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (pow.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1)) 1) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) x) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 3))) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (cbrt.f64 (pow.f64 (exp.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x))) 3)) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (!=.f64 1 0) (!=.f64 3 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 x 0) (*.f64 (pow.f64 4 1/8) (exp.f64 (log.f64 x))) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 4 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 4 1/8) x)) 1))) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (pow.f64 4 1/8) x) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (sqrt.f64 2) 1/8) (pow.f64 (sqrt.f64 2) 1/8))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 2) 1/8) (pow.f64 (cbrt.f64 4) 1/8))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 4 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 2 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 x (pow.f64 4 1/16)) (exp.f64 (*.f64 (log.f64 (pow.f64 4 1/16)) 1))) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (pow.f64 4 1/16) 0) (*.f64 (*.f64 x (pow.f64 4 1/16)) (exp.f64 (*.f64 1/16 (log.f64 4)))) (*.f64 (pow.f64 4 1/8) x)) |
(if (>=.f64 16 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>=.f64 4 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 x (*.f64 (pow.f64 (sqrt.f64 2) 1/4) (pow.f64 (sqrt.f64 2) 1/4))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 x (pow.f64 2 1/4)) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 2) 0) (>.f64 (cbrt.f64 4) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 2) 1/4) (pow.f64 (cbrt.f64 4) 1/4))) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 4 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 4 1/8)) 2) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 4 1/8) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>.f64 (pow.f64 4 1/8) 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (>=.f64 2 0) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 4 1/8) x) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 x (pow.f64 16 1/16)) |
(*.f64 x (pow.f64 2 1/4)) |
(*.f64 x (pow.f64 2 1/4)) |
Compiled 17231 to 16275 computations (5.5% saved)
6 alts after pruning (4 fresh and 2 done)
| Pruned | Kept | Total | |
|---|---|---|---|
| New | 340 | 3 | 343 |
| Fresh | 2 | 1 | 3 |
| Picked | 0 | 1 | 1 |
| Done | 1 | 1 | 2 |
| Total | 343 | 6 | 349 |
| Status | Error | Program |
|---|---|---|
| 1.04% | (fabs.f64 (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) | |
| ▶ | 0.92% | (fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)) |
| ✓ | 0.62% | (fabs.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))) |
| 1.09% | (fabs.f64 (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) | |
| 2.09% | (fabs.f64 (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2))) | |
| ✓ | 0.69% | (fabs.f64 (*.f64 (sqrt.f64 2) x)) |
Compiled 396 to 371 computations (6.3% saved)
Found 2 expressions with local error:
| New | Error | Program |
|---|---|---|
| ✓ | 0.69% | (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
| ✓ | 1.56% | (pow.f64 (pow.f64 4 1/8) 2) |
Compiled 28 to 25 computations (10.7% saved)
3 calls:
| Time | Variable | Point | Expression | |
|---|---|---|---|---|
| 0.0ms | x | @ | 0 | (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
| 0.0ms | x | @ | inf | (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
| 0.0ms | x | @ | -inf | (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
| 1× | batch-egg-rewrite |
| Inputs |
|---|
(pow.f64 (pow.f64 4 1/8) 2) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
| Outputs |
|---|
((pow.f64 (pow.f64 4 1/8) 2) (pow.f64 (pow.f64 4 3/4) 1/3) (pow.f64 (pow.f64 16 1/8) 1) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 3) (pow.f64 (pow.f64 16 1/16) 2) (pow.f64 16 1/8) (pow.f64 4 1/4) (*.f64 (cbrt.f64 (pow.f64 16 1/16)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 16 1/16))) (*.f64 (pow.f64 2 1/4) (pow.f64 2 1/4)) (*.f64 (pow.f64 16 1/8) 1) (*.f64 1 (pow.f64 16 1/8)) (*.f64 (pow.f64 1 1/4) (pow.f64 16 1/8)) (*.f64 (pow.f64 16 1/16) (pow.f64 16 1/16)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8))) (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8)))) 3)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) (cbrt.f64 (pow.f64 16 1/8))) (*.f64 (*.f64 (pow.f64 16 1/16) (cbrt.f64 (pow.f64 16 1/16))) (cbrt.f64 (pow.f64 16 1/8))) (*.f64 (pow.f64 (pow.f64 4 1/16) 3) (pow.f64 4 1/16)) (*.f64 (pow.f64 4 1/16) (pow.f64 (pow.f64 4 1/16) 3)) (exp.f64 (*.f64 (log.f64 4) 1/4)) (exp.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1)) (exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 3) 1/3)) (exp.f64 (*.f64 (*.f64 (log.f64 4) 1) 1/4)) (exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1) 1)) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 2 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 1 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 (pow.f64 16 1/8) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 4 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>=.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>=.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (NAN.f64)) (if (and (>.f64 1/8 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (sqrt.f64 1/8) 0) (>.f64 (sqrt.f64 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 1 0) (>.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (cbrt.f64 1/8) 0) (>.f64 1/4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>=.f64 1/8 0) (>=.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>=.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>=.f64 2 0) (>=.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (>.f64 2 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>=.f64 1 0) (>=.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (if (and (>.f64 1 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) (pow.f64 (pow.f64 4 1/8) 2) (pow.f64 (pow.f64 4 1/8) 2)) |
((*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) (pow.f64 (*.f64 (pow.f64 16 1/8) x) 1) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 3) (pow.f64 (*.f64 (pow.f64 4 3/4) (pow.f64 x 3)) 1/3) (*.f64 (*.f64 (pow.f64 16 1/8) x) 1) (*.f64 1 (*.f64 (pow.f64 16 1/8) x)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2)) (*.f64 (*.f64 x (cbrt.f64 (pow.f64 16 1/8))) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2)) (*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) (*.f64 (*.f64 (pow.f64 16 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) (*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 16 1/8))) (*.f64 (pow.f64 16 1/8) x) (*.f64 x (pow.f64 16 1/8)) (*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)))) 3)) (*.f64 (pow.f64 16 1/16) (*.f64 (pow.f64 16 1/16) x)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x)) (*.f64 (*.f64 x (pow.f64 16 1/16)) (pow.f64 16 1/16)) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (pow.f64 16 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 16 1/8) x) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 x 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>=.f64 4 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>=.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 16 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1))) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (pow.f64 16 1/8) 0) (*.f64 x (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1))) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8)) (*.f64 (pow.f64 16 1/16) x)) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) 1) (*.f64 (pow.f64 16 1/8) x)) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4)) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1)) x) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 x 0) (*.f64 (exp.f64 (*.f64 (log.f64 x) 1)) (pow.f64 16 1/8)) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1) 1)) (*.f64 (pow.f64 16 1/8) x)) (if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 3))) (*.f64 (pow.f64 16 1/8) x)) (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) (*.f64 x (pow.f64 4 1/4)) (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)) |
| 1× | egglog |
| Inputs |
|---|
(pow.f64 (pow.f64 4 1/8) 2) |
(pow.f64 (pow.f64 4 3/4) 1/3) |
(pow.f64 (pow.f64 16 1/8) 1) |
(pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 3) |
(pow.f64 (pow.f64 16 1/16) 2) |
(pow.f64 16 1/8) |
(pow.f64 4 1/4) |
(*.f64 (cbrt.f64 (pow.f64 16 1/16)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 16 1/16))) |
(*.f64 (pow.f64 2 1/4) (pow.f64 2 1/4)) |
(*.f64 (pow.f64 16 1/8) 1) |
(*.f64 1 (pow.f64 16 1/8)) |
(*.f64 (pow.f64 1 1/4) (pow.f64 16 1/8)) |
(*.f64 (pow.f64 16 1/16) (pow.f64 16 1/16)) |
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2)) |
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8))) (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8)))) 3)) |
(*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) (cbrt.f64 (pow.f64 16 1/8))) |
(*.f64 (*.f64 (pow.f64 16 1/16) (cbrt.f64 (pow.f64 16 1/16))) (cbrt.f64 (pow.f64 16 1/8))) |
(*.f64 (pow.f64 (pow.f64 4 1/16) 3) (pow.f64 4 1/16)) |
(*.f64 (pow.f64 4 1/16) (pow.f64 (pow.f64 4 1/16) 3)) |
(exp.f64 (*.f64 (log.f64 4) 1/4)) |
(exp.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1)) |
(exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 3) 1/3)) |
(exp.f64 (*.f64 (*.f64 (log.f64 4) 1) 1/4)) |
(exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1) 1)) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 2 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 1 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>.f64 (pow.f64 16 1/8) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 4 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>=.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>=.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (NAN.f64)) |
(if (and (>.f64 1/8 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 (sqrt.f64 1/8) 0) (>.f64 (sqrt.f64 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 1 0) (>.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 (cbrt.f64 1/8) 0) (>.f64 1/4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>=.f64 1/8 0) (>=.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>=.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>=.f64 2 0) (>=.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (>.f64 2 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>=.f64 1 0) (>=.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(if (and (>.f64 1 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(pow.f64 (pow.f64 4 1/8) 2) |
(pow.f64 (pow.f64 4 1/8) 2) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(pow.f64 (*.f64 (pow.f64 16 1/8) x) 1) |
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 3) |
(pow.f64 (*.f64 (pow.f64 4 3/4) (pow.f64 x 3)) 1/3) |
(*.f64 (*.f64 (pow.f64 16 1/8) x) 1) |
(*.f64 1 (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2)) |
(*.f64 (*.f64 x (cbrt.f64 (pow.f64 16 1/8))) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2)) |
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) |
(*.f64 (*.f64 (pow.f64 16 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) |
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 16 1/8))) |
(*.f64 (pow.f64 16 1/8) x) |
(*.f64 x (pow.f64 16 1/8)) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)))) 3)) |
(*.f64 (pow.f64 16 1/16) (*.f64 (pow.f64 16 1/16) x)) |
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x)) |
(*.f64 (*.f64 x (pow.f64 16 1/16)) (pow.f64 16 1/16)) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (pow.f64 16 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 16 1/8) x) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>=.f64 4 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>=.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 16 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1))) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 x (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1))) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8)) (*.f64 (pow.f64 16 1/16) x)) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) 1) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4)) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1)) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 x 0) (*.f64 (exp.f64 (*.f64 (log.f64 x) 1)) (pow.f64 16 1/8)) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1) 1)) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 3))) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 x (pow.f64 4 1/4)) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
| Outputs |
|---|
(pow.f64 (pow.f64 4 1/8) 2) |
(sqrt.f64 2) |
(pow.f64 (pow.f64 4 3/4) 1/3) |
(sqrt.f64 2) |
(pow.f64 (pow.f64 16 1/8) 1) |
(sqrt.f64 2) |
(pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 3) |
(sqrt.f64 2) |
(pow.f64 (pow.f64 16 1/16) 2) |
(sqrt.f64 2) |
(pow.f64 16 1/8) |
(sqrt.f64 2) |
(pow.f64 4 1/4) |
(sqrt.f64 2) |
(*.f64 (cbrt.f64 (pow.f64 16 1/16)) (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 16 1/16))) |
(sqrt.f64 2) |
(*.f64 (pow.f64 2 1/4) (pow.f64 2 1/4)) |
(sqrt.f64 2) |
(*.f64 (pow.f64 16 1/8) 1) |
(sqrt.f64 2) |
(*.f64 1 (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(*.f64 (pow.f64 1 1/4) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(*.f64 (pow.f64 16 1/16) (pow.f64 16 1/16)) |
(sqrt.f64 2) |
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2)) |
(sqrt.f64 2) |
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8))) (cbrt.f64 (cbrt.f64 (pow.f64 16 1/8)))) 3)) |
(sqrt.f64 2) |
(*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) (cbrt.f64 (pow.f64 16 1/8))) |
(sqrt.f64 2) |
(*.f64 (*.f64 (pow.f64 16 1/16) (cbrt.f64 (pow.f64 16 1/16))) (cbrt.f64 (pow.f64 16 1/8))) |
(sqrt.f64 2) |
(*.f64 (pow.f64 (pow.f64 4 1/16) 3) (pow.f64 4 1/16)) |
(*.f64 (pow.f64 4 1/16) (pow.f64 4 3/16)) |
(*.f64 (pow.f64 4 1/16) (pow.f64 (pow.f64 4 1/16) 3)) |
(*.f64 (pow.f64 4 1/16) (pow.f64 4 3/16)) |
(exp.f64 (*.f64 (log.f64 4) 1/4)) |
(sqrt.f64 2) |
(exp.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1)) |
(sqrt.f64 2) |
(exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 3) 1/3)) |
(sqrt.f64 2) |
(exp.f64 (*.f64 (*.f64 (log.f64 4) 1) 1/4)) |
(sqrt.f64 2) |
(exp.f64 (*.f64 (*.f64 (*.f64 (log.f64 4) 1/4) 1) 1)) |
(sqrt.f64 2) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 2 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 1 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>.f64 (pow.f64 16 1/8) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 4 0) (>.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>=.f64 4 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>=.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>.f64 (pow.f64 16 1/16) 0) (pow.f64 16 1/8) (NAN.f64)) |
(exp.f64 (*.f64 2 (log.f64 (pow.f64 2 1/4)))) |
(if (and (>.f64 1/8 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 (sqrt.f64 1/8) 0) (>.f64 (sqrt.f64 1/8) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 1 0) (>.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 (cbrt.f64 1/8) 0) (>.f64 1/4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>=.f64 1/8 0) (>=.f64 1/8 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>=.f64 1/8 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>=.f64 2 0) (>=.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (>.f64 2 0) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>=.f64 1 0) (>=.f64 4 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(if (and (>.f64 1 0) (>.f64 2 0)) (pow.f64 16 1/8) (pow.f64 16 1/8)) |
(sqrt.f64 2) |
(pow.f64 (pow.f64 4 1/8) 2) |
(sqrt.f64 2) |
(pow.f64 (pow.f64 4 1/8) 2) |
(sqrt.f64 2) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (sqrt.f64 2) x) |
(pow.f64 (*.f64 (pow.f64 16 1/8) x) 1) |
(*.f64 (sqrt.f64 2) x) |
(pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 3) |
(*.f64 (sqrt.f64 2) x) |
(pow.f64 (*.f64 (pow.f64 4 3/4) (pow.f64 x 3)) 1/3) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (*.f64 (pow.f64 16 1/8) x) 1) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 1 (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (*.f64 x (cbrt.f64 (pow.f64 16 1/8))) (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (*.f64 (pow.f64 16 1/8) (cbrt.f64 x)) (pow.f64 (cbrt.f64 x) 2)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (cbrt.f64 x) (*.f64 (pow.f64 (cbrt.f64 x) 2) (pow.f64 16 1/8))) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (pow.f64 16 1/8) x) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 x (pow.f64 16 1/8)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) (pow.f64 (*.f64 (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x))) (cbrt.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)))) 3)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (pow.f64 16 1/16) (*.f64 (pow.f64 16 1/16) x)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (*.f64 x (pow.f64 16 1/16)) (pow.f64 16 1/16)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (pow.f64 16 1/8) 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 1 0) (>.f64 (*.f64 (pow.f64 16 1/8) x) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 x 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 0) (>.f64 (pow.f64 (cbrt.f64 (*.f64 (pow.f64 16 1/8) x)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (pow.f64 4 1/16) 0) (>.f64 (pow.f64 4 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 2 0) (>.f64 2 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 1 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>=.f64 4 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 4 0) (>.f64 4 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/16)) 0) (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (pow.f64 16 1/16) 0) (>.f64 (pow.f64 16 1/16) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>=.f64 (pow.f64 16 1/16) 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (cbrt.f64 (pow.f64 16 1/8)) 0) (>.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 1 0) (>.f64 (pow.f64 16 1/8) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 1 0) (>.f64 x 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (cbrt.f64 x) 0) (>.f64 (pow.f64 (cbrt.f64 x) 2) 0)) (*.f64 (pow.f64 16 1/8) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 x (pow.f64 16 1/16)) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 2 1/4) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 1 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1))) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 x (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1))) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>.f64 x 0) (*.f64 (pow.f64 16 1/8) (exp.f64 (*.f64 (log.f64 x) 1))) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8)) (*.f64 (pow.f64 16 1/16) x)) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 2 1/4) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/8) (pow.f64 (cbrt.f64 16) 1/8))) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1)) 1) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4)) x) (*.f64 (pow.f64 16 1/8) x)) |
(if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 x (*.f64 (pow.f64 (cbrt.f64 4) 1/4) (pow.f64 (cbrt.f64 16) 1/4))) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (pow.f64 16 1/8) 0) (*.f64 (exp.f64 (*.f64 (log.f64 (pow.f64 16 1/8)) 1)) x) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>.f64 x 0) (*.f64 (exp.f64 (*.f64 (log.f64 x) 1)) (pow.f64 16 1/8)) (*.f64 (pow.f64 16 1/8) x)) |
(if (>.f64 x 0) (*.f64 (sqrt.f64 2) (exp.f64 (log.f64 x))) (*.f64 (sqrt.f64 2) x)) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (exp.f64 (*.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 1) 1)) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(if (>.f64 (*.f64 (pow.f64 16 1/8) x) 0) (cbrt.f64 (exp.f64 (*.f64 (log.f64 (*.f64 (pow.f64 16 1/8) x)) 3))) (*.f64 (pow.f64 16 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 x (pow.f64 4 1/4)) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (sqrt.f64 2) x) |
(*.f64 (pow.f64 (pow.f64 4 1/8) 2) x) |
(*.f64 (sqrt.f64 2) x) |
Compiled 1779 to 1600 computations (10.1% saved)
6 alts after pruning (3 fresh and 3 done)
| Pruned | Kept | Total | |
|---|---|---|---|
| New | 110 | 1 | 111 |
| Fresh | 1 | 2 | 3 |
| Picked | 0 | 1 | 1 |
| Done | 0 | 2 | 2 |
| Total | 111 | 6 | 117 |
| Status | Error | Program |
|---|---|---|
| 1.04% | (fabs.f64 (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) | |
| ✓ | 0.92% | (fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)) |
| ✓ | 0.62% | (fabs.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))) |
| 2.09% | (fabs.f64 (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2))) | |
| ✓ | 0.69% | (fabs.f64 (*.f64 (sqrt.f64 2) x)) |
| 0.6% | (fabs.f64 (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x))) |
Compiled 200 to 187 computations (6.5% saved)
Total -30.7b remaining (-8027.4%)
Threshold costs -30.7b (-8027.4%)
| Inputs |
|---|
(fabs.f64 (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x))) |
(fabs.f64 (*.f64 (sqrt.f64 2) x)) |
(fabs.f64 (*.f64 (*.f64 (pow.f64 4 1/8) (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x)))) (pow.f64 (cbrt.f64 (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) 2))) |
(fabs.f64 (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) |
(fabs.f64 (*.f64 (pow.f64 4 1/8) (*.f64 (pow.f64 4 1/8) x))) |
(fabs.f64 (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (*.f64 (pow.f64 16 1/32) x) (*.f64 (pow.f64 (cbrt.f64 4) 1/16) (pow.f64 (cbrt.f64 16) 1/16))) (*.f64 x (pow.f64 2 1/4))))) |
(fabs.f64 (*.f64 (pow.f64 (pow.f64 4 1/8) 2) x)) |
(fabs.f64 (pow.f64 (cbrt.f64 (*.f64 (sqrt.f64 2) x)) 3)) |
(fabs.f64 (if (and (>.f64 (sqrt.f64 2) 0) (>.f64 (sqrt.f64 2) 0)) (*.f64 (*.f64 (pow.f64 4 1/16) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))) (pow.f64 (pow.f64 (sqrt.f64 2) 1/8) 2)) (*.f64 (pow.f64 4 1/8) (if (and (>.f64 (cbrt.f64 4) 0) (>.f64 (cbrt.f64 16) 0)) (*.f64 (pow.f64 4 1/16) (*.f64 (pow.f64 16 1/32) x)) (*.f64 (pow.f64 4 1/8) x))))) |
(sqrt.f64 (*.f64 (*.f64 2 x) x)) |
| Outputs |
|---|
(fabs.f64 (*.f64 (cbrt.f64 (pow.f64 16 1/8)) (*.f64 (pow.f64 (cbrt.f64 (pow.f64 16 1/8)) 2) x))) |
3 calls:
| 7.0ms | x |
| 5.0ms | (sqrt.f64 (*.f64 (*.f64 2 x) x)) |
| 4.0ms | (*.f64 (*.f64 2 x) x) |
| Error | Segments | Branch |
|---|---|---|
| 0.6% | 1 | x |
| 0.6% | 1 | (sqrt.f64 (*.f64 (*.f64 2 x) x)) |
| 0.6% | 1 | (*.f64 (*.f64 2 x) x) |
Compiled 267 to 243 computations (9% saved)
| 1× | fuel |
Compiled 15 to 14 computations (6.7% saved)
Compiled 15 to 14 computations (6.7% saved)
Loading profile data...