cleanup: Remove pointless assert(is_${NODE}(x)) just before get_${NODE}_${FOO}(x...
[libfirm] / ir / opt / jumpthreading.c
1 /*
2  * Copyright (C) 1995-2010 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Path-Sensitive Jump Threading
23  * @date    10. Sep. 2006
24  * @author  Christoph Mallon, Matthias Braun
25  */
26 #include "config.h"
27
28 #include "iroptimize.h"
29
30 #include <assert.h>
31 #include <stdbool.h>
32 #include "array_t.h"
33 #include "debug.h"
34 #include "ircons.h"
35 #include "irgmod.h"
36 #include "irgopt.h"
37 #include "irgwalk.h"
38 #include "irnode.h"
39 #include "irnode_t.h"
40 #include "iredges.h"
41 #include "iredges_t.h"
42 #include "irtools.h"
43 #include "irgraph.h"
44 #include "tv.h"
45 #include "iroptimize.h"
46 #include "iropt_dbg.h"
47 #include "irpass.h"
48 #include "vrp.h"
49 #include "firmstat_t.h"
50
51 #undef AVOID_PHIB
52
53 DEBUG_ONLY(static firm_dbg_module_t *dbg;)
54
55 /**
56  * Add the new predecessor x to node node, which is either a Block or a Phi
57  */
58 static void add_pred(ir_node* node, ir_node* x)
59 {
60         ir_node** ins;
61
62         int const n = get_Block_n_cfgpreds(node);
63         NEW_ARR_A(ir_node*, ins, n + 1);
64         for (int i = 0; i < n; i++)
65                 ins[i] = get_irn_n(node, i);
66         ins[n] = x;
67         set_irn_in(node, n + 1, ins);
68 }
69
70 static ir_node *ssa_second_def;
71 static ir_node *ssa_second_def_block;
72
73 static ir_node *search_def_and_create_phis(ir_node *block, ir_mode *mode,
74                                            int first)
75 {
76         int i;
77         int n_cfgpreds;
78         ir_graph *irg;
79         ir_node *phi;
80         ir_node **in;
81         ir_node *dummy;
82
83         /* In case of a bad input to a block we need to return the bad value */
84         if (is_Bad(block)) {
85                 ir_graph *irg = get_irn_irg(block);
86                 return new_r_Bad(irg, mode);
87         }
88
89         /* the other defs can't be marked for cases where a user of the original
90          * value is in the same block as the alternative definition.
91          * In this case we mustn't use the alternative definition.
92          * So we keep a flag that indicated whether we walked at least 1 block
93          * away and may use the alternative definition */
94         if (block == ssa_second_def_block && !first) {
95                 return ssa_second_def;
96         }
97
98         /* already processed this block? */
99         if (irn_visited(block)) {
100                 ir_node *value = (ir_node*) get_irn_link(block);
101                 return value;
102         }
103
104         irg = get_irn_irg(block);
105         assert(block != get_irg_start_block(irg));
106
107         /* a Block with only 1 predecessor needs no Phi */
108         n_cfgpreds = get_Block_n_cfgpreds(block);
109         if (n_cfgpreds == 1) {
110                 ir_node *pred_block = get_Block_cfgpred_block(block, 0);
111                 ir_node *value      = search_def_and_create_phis(pred_block, mode, 0);
112
113                 set_irn_link(block, value);
114                 mark_irn_visited(block);
115                 return value;
116         }
117
118         /* create a new Phi */
119         NEW_ARR_A(ir_node*, in, n_cfgpreds);
120         dummy = new_r_Dummy(irg, mode);
121         for (i = 0; i < n_cfgpreds; ++i)
122                 in[i] = dummy;
123
124         phi = new_r_Phi(block, n_cfgpreds, in, mode);
125         set_irn_link(block, phi);
126         mark_irn_visited(block);
127
128         /* set Phi predecessors */
129         for (i = 0; i < n_cfgpreds; ++i) {
130                 ir_node *pred_block = get_Block_cfgpred_block(block, i);
131                 ir_node *pred_val   = search_def_and_create_phis(pred_block, mode, 0);
132
133                 set_irn_n(phi, i, pred_val);
134         }
135
136         return phi;
137 }
138
139 /**
140  * Given a set of values this function constructs SSA-form for the users of the
141  * first value (the users are determined through the out-edges of the value).
142  * Uses the irn_visited flags. Works without using the dominance tree.
143  */
144 static void construct_ssa(ir_node *orig_block, ir_node *orig_val,
145                           ir_node *second_block, ir_node *second_val)
146 {
147         ir_graph *irg;
148         ir_mode *mode;
149
150         /* no need to do anything */
151         if (orig_val == second_val)
152                 return;
153
154         irg = get_irn_irg(orig_val);
155         inc_irg_visited(irg);
156
157         mode = get_irn_mode(orig_val);
158         set_irn_link(orig_block, orig_val);
159         mark_irn_visited(orig_block);
160
161         ssa_second_def_block = second_block;
162         ssa_second_def       = second_val;
163
164         /* Only fix the users of the first, i.e. the original node */
165         foreach_out_edge_safe(orig_val, edge) {
166                 ir_node *user = get_edge_src_irn(edge);
167                 int j = get_edge_src_pos(edge);
168                 ir_node *user_block = get_nodes_block(user);
169                 ir_node *newval;
170
171                 /* ignore keeps */
172                 if (is_End(user))
173                         continue;
174
175                 DB((dbg, LEVEL_3, ">>> Fixing user %+F (pred %d == %+F)\n", user, j, get_irn_n(user, j)));
176
177                 if (is_Phi(user)) {
178                         ir_node *pred_block = get_Block_cfgpred_block(user_block, j);
179                         newval = search_def_and_create_phis(pred_block, mode, 1);
180                 } else {
181                         newval = search_def_and_create_phis(user_block, mode, 1);
182                 }
183
184                 /* don't fix newly created Phis from the SSA construction */
185                 if (newval != user) {
186                         DB((dbg, LEVEL_4, ">>>> Setting input %d of %+F to %+F\n", j, user, newval));
187                         set_irn_n(user, j, newval);
188                 }
189         }
190 }
191
192 /**
193  * jumpthreading produces critical edges, e.g. B-C:
194  *     A         A
195  *  \ /       \  |
196  *   B    =>   B |
197  *  / \       / \|
198  *     C         C
199  *
200  * By splitting this critical edge more threadings might be possible.
201  */
202 static void split_critical_edge(ir_node *block, int pos)
203 {
204         ir_graph *irg = get_irn_irg(block);
205         ir_node *in[1];
206         ir_node *new_block;
207         ir_node *new_jmp;
208
209         in[0] = get_Block_cfgpred(block, pos);
210         new_block = new_r_Block(irg, 1, in);
211         new_jmp = new_r_Jmp(new_block);
212         set_Block_cfgpred(block, pos, new_jmp);
213 }
214
215 typedef struct jumpthreading_env_t {
216         ir_node       *true_block;
217         ir_node       *cmp;        /**< The Compare node that might be partial evaluated */
218         ir_relation    relation;   /**< The Compare mode of the Compare node. */
219         ir_node       *cnst;
220         ir_tarval     *tv;
221         ir_visited_t   visited_nr;
222
223         ir_node       *cnst_pred;   /**< the block before the constant */
224         int            cnst_pos;    /**< the pos to the constant block (needed to
225                                           kill that edge later) */
226 } jumpthreading_env_t;
227
228 static ir_node *copy_and_fix_node(const jumpthreading_env_t *env,
229                                   ir_node *block, ir_node *copy_block, int j,
230                                   ir_node *node)
231 {
232         int      i, arity;
233         ir_node *copy;
234
235         /* we can evaluate Phis right now, all other nodes get copied */
236         if (is_Phi(node)) {
237                 copy = get_Phi_pred(node, j);
238                 /* we might have to evaluate a Phi-cascade */
239                 if (get_irn_visited(copy) >= env->visited_nr) {
240                         copy = (ir_node*)get_irn_link(copy);
241                 }
242         } else {
243                 copy = exact_copy(node);
244                 set_nodes_block(copy, copy_block);
245
246                 assert(get_irn_mode(copy) != mode_X);
247
248                 arity = get_irn_arity(copy);
249                 for (i = 0; i < arity; ++i) {
250                         ir_node *pred     = get_irn_n(copy, i);
251                         ir_node *new_pred;
252
253                         if (get_nodes_block(pred) != block)
254                                 continue;
255
256                         if (get_irn_visited(pred) >= env->visited_nr) {
257                                 new_pred = (ir_node*)get_irn_link(pred);
258                         } else {
259                                 new_pred = copy_and_fix_node(env, block, copy_block, j, pred);
260                         }
261                         DB((dbg, LEVEL_2, ">> Set Pred of %+F to %+F\n", copy, new_pred));
262                         set_irn_n(copy, i, new_pred);
263                 }
264         }
265
266         set_irn_link(node, copy);
267         set_irn_visited(node, env->visited_nr);
268
269         return copy;
270 }
271
272 static void copy_and_fix(const jumpthreading_env_t *env, ir_node *block,
273                          ir_node *copy_block, int j)
274 {
275         /* Look at all nodes in the cond_block and copy them into pred */
276         foreach_out_edge(block, edge) {
277                 ir_node *node = get_edge_src_irn(edge);
278                 ir_node *copy;
279                 ir_mode *mode;
280
281                 if (is_End(node)) {
282                         /* edge is a Keep edge. If the end block is unreachable via normal
283                          * control flow, we must maintain end's reachability with Keeps.
284                          */
285                         keep_alive(copy_block);
286                         continue;
287                 }
288                 /* ignore control flow */
289                 mode = get_irn_mode(node);
290                 if (mode == mode_X || is_Cond(node) || is_Switch(node))
291                         continue;
292 #ifdef AVOID_PHIB
293                 /* we may not copy mode_b nodes, because this could produce Phi with
294                  * mode_bs which can't be handled in all backends. Instead we duplicate
295                  * the node and move it to its users */
296                 if (mode == mode_b) {
297                         ir_node *const pred = get_Proj_pred(node);
298                         long     const pn   = get_Proj_proj(node);
299
300                         foreach_out_edge_safe(node, edge) {
301                                 ir_node *cmp_copy;
302                                 ir_node *user       = get_edge_src_irn(edge);
303                                 int pos             = get_edge_src_pos(edge);
304                                 ir_node *user_block = get_nodes_block(user);
305
306                                 if (user_block == block)
307                                         continue;
308
309                                 cmp_copy = exact_copy(pred);
310                                 set_nodes_block(cmp_copy, user_block);
311                                 copy = new_r_Proj(cmp_copy, mode_b, pn);
312                                 set_irn_n(user, pos, copy);
313                         }
314                         continue;
315                 }
316 #endif
317
318                 copy = copy_and_fix_node(env, block, copy_block, j, node);
319
320                 /* we might hit values in blocks that have already been processed by a
321                  * recursive find_phi_with_const() call */
322                 assert(get_irn_visited(copy) <= env->visited_nr);
323                 if (get_irn_visited(copy) >= env->visited_nr) {
324                         ir_node *prev_copy = (ir_node*)get_irn_link(copy);
325                         if (prev_copy != NULL)
326                                 set_irn_link(node, prev_copy);
327                 }
328         }
329
330         /* fix data-flow (and reconstruct SSA if needed) */
331         foreach_out_edge(block, edge) {
332                 ir_node *node = get_edge_src_irn(edge);
333                 ir_node *copy_node;
334                 ir_mode *mode;
335
336                 mode = get_irn_mode(node);
337                 if (mode == mode_X || is_Cond(node) || is_Switch(node))
338                         continue;
339 #ifdef AVOID_PHIB
340                 if (mode == mode_b)
341                         continue;
342 #endif
343
344                 DB((dbg, LEVEL_2, ">> Fixing users of %+F\n", node));
345
346                 copy_node = (ir_node*)get_irn_link(node);
347                 construct_ssa(block, node, copy_block, copy_node);
348         }
349
350         /* make sure new nodes are kept alive if old nodes were */
351         ir_graph *irg = get_irn_irg(block);
352         ir_node  *end = get_irg_end(irg);
353         for (int i = 0, arity = get_End_n_keepalives(end); i < arity; ++i) {
354                 ir_node *keep = get_End_keepalive(end, i);
355                 if (get_irn_visited(keep) < env->visited_nr || is_Block(keep))
356                         continue;
357                 ir_node *copy = get_irn_link(keep);
358                 add_End_keepalive(end, copy);
359         }
360 }
361
362 /**
363  * returns whether the cmp evaluates to true or false, or can't be evaluated!
364  * 1: true, 0: false, -1: can't evaluate
365  *
366  * @param relation  the compare mode of the Compare
367  * @param tv_left   the left tarval
368  * @param tv_right  the right tarval
369  */
370 static int eval_cmp_tv(ir_relation relation, ir_tarval *tv_left,
371                        ir_tarval *tv_right)
372 {
373         ir_relation cmp_result = tarval_cmp(tv_left, tv_right);
374
375         /* does the compare evaluate to true? */
376         if (cmp_result == ir_relation_false)
377                 return -1;
378         if ((cmp_result & relation) != 0)
379                 return 1;
380
381         return 0;
382 }
383
384 #if 0
385 /* Matze: disabled, check first if the compare still is correct */
386
387 /**
388  * returns whether the cmp evaluates to true or false according to vrp
389  * information , or can't be evaluated!
390  * 1: true, 0: false, -1: can't evaluate
391  *
392  * @param relation  the compare mode of the Compare
393  * @param left      the left node
394  * @param right     the right node
395  */
396 static int eval_cmp_vrp(ir_relation relation, ir_node *left, ir_node *right)
397 {
398         ir_relation cmp_result = vrp_cmp(left, right);
399         /* does the compare evaluate to true? */
400         if (cmp_result == ir_relation_false)
401                 return -1;
402
403         if ((cmp_result & relation) != cmp_result) {
404                 if ((cmp_result & relation) != 0) {
405                         return -1;
406                 }
407                 return 0;
408         }
409         return 1;
410 }
411 #endif
412
413 /**
414  * returns whether the cmp evaluates to true or false, or can't be evaluated!
415  * 1: true, 0: false, -1: can't evaluate
416  *
417  * @param env      the environment
418  * @param cand     the candidate node, either a Const or a Confirm
419  */
420 static int eval_cmp(jumpthreading_env_t *env, ir_node *cand)
421 {
422         if (is_Const(cand)) {
423                 ir_tarval *tv_cand = get_Const_tarval(cand);
424                 ir_tarval *tv_cmp  = get_Const_tarval(env->cnst);
425
426                 return eval_cmp_tv(env->relation, tv_cand, tv_cmp);
427         } else { /* a Confirm */
428                 ir_tarval *res = computed_value_Cmp_Confirm(env->cmp, cand, env->cnst, env->relation);
429
430                 if (res == tarval_bad)
431                         return -1;
432                 return res == tarval_b_true;
433         }
434 }
435
436 /**
437  * Check for Const or Confirm with Const.
438  */
439 static int is_Const_or_Confirm(const ir_node *node)
440 {
441         if (is_Confirm(node))
442                 node = get_Confirm_bound(node);
443         return is_Const(node);
444 }
445
446 /**
447  * get the tarval of a Const or Confirm with
448  */
449 static ir_tarval *get_Const_or_Confirm_tarval(const ir_node *node)
450 {
451         if (is_Confirm(node)) {
452                 if (get_Confirm_bound(node))
453                         node = get_Confirm_bound(node);
454         }
455         return get_Const_tarval(node);
456 }
457
458 static ir_node *find_const_or_confirm(jumpthreading_env_t *env, ir_node *jump,
459                                       ir_node *value)
460 {
461         ir_node *block = get_nodes_block(jump);
462
463         if (irn_visited_else_mark(value))
464                 return NULL;
465
466         if (is_Const_or_Confirm(value)) {
467                 if (eval_cmp(env, value) <= 0)
468                         return NULL;
469
470                 DB((
471                         dbg, LEVEL_1,
472                         "> Found jump threading candidate %+F->%+F\n",
473                         block, env->true_block
474                 ));
475
476                 /* adjust true_block to point directly towards our jump */
477                 add_pred(env->true_block, jump);
478
479                 split_critical_edge(env->true_block, 0);
480
481                 /* we need a bigger visited nr when going back */
482                 env->visited_nr++;
483
484                 return block;
485         }
486
487         if (is_Phi(value)) {
488                 int i, arity;
489
490                 /* the Phi has to be in the same Block as the Jmp */
491                 if (get_nodes_block(value) != block)
492                         return NULL;
493
494                 arity = get_irn_arity(value);
495                 for (i = 0; i < arity; ++i) {
496                         ir_node *copy_block;
497                         ir_node *phi_pred = get_Phi_pred(value, i);
498                         ir_node *cfgpred  = get_Block_cfgpred(block, i);
499
500                         copy_block = find_const_or_confirm(env, cfgpred, phi_pred);
501                         if (copy_block == NULL)
502                                 continue;
503
504                         /* copy duplicated nodes in copy_block and fix SSA */
505                         copy_and_fix(env, block, copy_block, i);
506
507                         if (copy_block == get_nodes_block(cfgpred)) {
508                                 env->cnst_pred = block;
509                                 env->cnst_pos  = i;
510                         }
511
512                         /* return now as we can't process more possibilities in 1 run */
513                         return copy_block;
514                 }
515         }
516
517         return NULL;
518 }
519
520 static ir_node *find_candidate(jumpthreading_env_t *env, ir_node *jump,
521                                ir_node *value)
522 {
523         ir_node *block = get_nodes_block(jump);
524
525         if (irn_visited_else_mark(value)) {
526                 return NULL;
527         }
528
529         if (is_Const_or_Confirm(value)) {
530                 ir_tarval *tv = get_Const_or_Confirm_tarval(value);
531
532                 if (tv != env->tv)
533                         return NULL;
534
535                 DB((
536                         dbg, LEVEL_1,
537                         "> Found jump threading candidate %+F->%+F\n",
538                         block, env->true_block
539                 ));
540
541                 /* adjust true_block to point directly towards our jump */
542                 add_pred(env->true_block, jump);
543
544                 split_critical_edge(env->true_block, 0);
545
546                 /* we need a bigger visited nr when going back */
547                 env->visited_nr++;
548
549                 return block;
550         }
551         if (is_Phi(value)) {
552                 int i, arity;
553
554                 /* the Phi has to be in the same Block as the Jmp */
555                 if (get_nodes_block(value) != block)
556                         return NULL;
557
558                 arity = get_irn_arity(value);
559                 for (i = 0; i < arity; ++i) {
560                         ir_node *copy_block;
561                         ir_node *phi_pred = get_Phi_pred(value, i);
562                         ir_node *cfgpred  = get_Block_cfgpred(block, i);
563
564                         copy_block = find_candidate(env, cfgpred, phi_pred);
565                         if (copy_block == NULL)
566                                 continue;
567
568                         /* copy duplicated nodes in copy_block and fix SSA */
569                         copy_and_fix(env, block, copy_block, i);
570
571                         if (copy_block == get_nodes_block(cfgpred)) {
572                                 env->cnst_pred = block;
573                                 env->cnst_pos  = i;
574                         }
575
576                         /* return now as we can't process more possibilities in 1 run */
577                         return copy_block;
578                 }
579         }
580         if (is_Cmp(value)) {
581                 ir_node    *cmp      = value;
582                 ir_node    *left     = get_Cmp_left(cmp);
583                 ir_node    *right    = get_Cmp_right(cmp);
584                 ir_relation relation = get_Cmp_relation(cmp);
585
586                 /* we assume that the constant is on the right side, swap left/right
587                  * if needed */
588                 if (is_Const(left)) {
589                         ir_node *t = left;
590                         left       = right;
591                         right      = t;
592
593                         relation   = get_inversed_relation(relation);
594                 }
595
596                 if (!is_Const(right))
597                         return NULL;
598
599                 if (get_nodes_block(left) != block)
600                         return NULL;
601
602                 /* negate condition when we're looking for the false block */
603                 if (env->tv == tarval_b_false) {
604                         relation = get_negated_relation(relation);
605                 }
606
607                 /* (recursively) look if a pred of a Phi is a constant or a Confirm */
608                 env->cmp      = cmp;
609                 env->relation = relation;
610                 env->cnst     = right;
611
612                 return find_const_or_confirm(env, jump, left);
613         }
614
615         return NULL;
616 }
617
618 /**
619  * Block-walker: searches for the following construct
620  *
621  *  Const or Phi with constants
622  *           |
623  *          Cmp
624  *           |
625  *         Cond
626  *          /
627  *       ProjX
628  *        /
629  *     Block
630  */
631 static void thread_jumps(ir_node* block, void* data)
632 {
633         jumpthreading_env_t env;
634         bool *changed = (bool*)data;
635         ir_node *selector;
636         ir_node *projx;
637         ir_node *cond;
638         ir_node *copy_block;
639         int      selector_evaluated;
640         ir_graph *irg;
641         ir_node *badX;
642         int      cnst_pos;
643
644         /* we do not deal with Phis, so restrict this to exactly one cfgpred */
645         if (get_Block_n_cfgpreds(block) != 1)
646                 return;
647
648         projx = get_Block_cfgpred(block, 0);
649         if (!is_Proj(projx))
650                 return;
651         assert(get_irn_mode(projx) == mode_X);
652
653         cond = get_Proj_pred(projx);
654         /* TODO handle switch Conds */
655         if (!is_Cond(cond))
656                 return;
657
658         /* handle cases that can be immediately evaluated */
659         selector = get_Cond_selector(cond);
660         selector_evaluated = -1;
661         if (is_Cmp(selector)) {
662                 ir_node *left  = get_Cmp_left(selector);
663                 ir_node *right = get_Cmp_right(selector);
664                 if (is_Const(left) && is_Const(right)) {
665                         ir_relation relation = get_Cmp_relation(selector);
666                         ir_tarval  *tv_left  = get_Const_tarval(left);
667                         ir_tarval  *tv_right = get_Const_tarval(right);
668
669                         selector_evaluated = eval_cmp_tv(relation, tv_left, tv_right);
670                 }
671 #if 0
672                 if (selector_evaluated < 0) {
673                         /* This is only the case if the predecessor nodes are not
674                          * constant or the comparison could not be evaluated.
675                          * Try with VRP information now.
676                          */
677                         selector_evaluated = eval_cmp_vrp(relation, left, right);
678                 }
679 #endif
680         } else if (is_Const_or_Confirm(selector)) {
681                 ir_tarval *tv = get_Const_or_Confirm_tarval(selector);
682                 if (tv == tarval_b_true) {
683                         selector_evaluated = 1;
684                 } else {
685                         assert(tv == tarval_b_false);
686                         selector_evaluated = 0;
687                 }
688         }
689
690         env.cnst_pred = NULL;
691         if (get_Proj_proj(projx) == pn_Cond_false) {
692                 env.tv = tarval_b_false;
693                 if (selector_evaluated >= 0)
694                         selector_evaluated = !selector_evaluated;
695         } else {
696                 env.tv = tarval_b_true;
697         }
698
699         if (selector_evaluated == 0) {
700                 ir_graph *irg = get_irn_irg(block);
701                 ir_node  *bad = new_r_Bad(irg, mode_X);
702                 exchange(projx, bad);
703                 *changed = true;
704                 return;
705         } else if (selector_evaluated == 1) {
706                 dbg_info *dbgi = get_irn_dbg_info(selector);
707                 ir_node  *jmp  = new_rd_Jmp(dbgi, get_nodes_block(projx));
708                 DBG_OPT_JUMPTHREADING(projx, jmp);
709                 exchange(projx, jmp);
710                 *changed = true;
711                 return;
712         }
713
714         /* (recursively) look if a pred of a Phi is a constant or a Confirm */
715         env.true_block = block;
716         irg = get_irn_irg(block);
717         inc_irg_visited(irg);
718         env.visited_nr = get_irg_visited(irg);
719
720         copy_block = find_candidate(&env, projx, selector);
721         if (copy_block == NULL)
722                 return;
723
724         /* We might thread the condition block of an infinite loop,
725          * such that there is no path to End anymore. */
726         keep_alive(block);
727
728         /* we have to remove the edge towards the pred as the pred now
729          * jumps into the true_block. We also have to shorten Phis
730          * in our block because of this */
731         badX     = new_r_Bad(irg, mode_X);
732         cnst_pos = env.cnst_pos;
733
734         /* shorten Phis */
735         foreach_out_edge_safe(env.cnst_pred, edge) {
736                 ir_node *node = get_edge_src_irn(edge);
737
738                 if (is_Phi(node)) {
739                         ir_node *bad = new_r_Bad(irg, get_irn_mode(node));
740                         set_Phi_pred(node, cnst_pos, bad);
741                 }
742         }
743
744         set_Block_cfgpred(env.cnst_pred, cnst_pos, badX);
745
746         /* the graph is changed now */
747         *changed = true;
748 }
749
750 void opt_jumpthreading(ir_graph* irg)
751 {
752         bool changed;
753         bool rerun;
754
755         assure_irg_properties(irg,
756                 IR_GRAPH_PROPERTY_NO_UNREACHABLE_CODE
757                 | IR_GRAPH_PROPERTY_CONSISTENT_OUT_EDGES
758                 | IR_GRAPH_PROPERTY_NO_CRITICAL_EDGES);
759
760         FIRM_DBG_REGISTER(dbg, "firm.opt.jumpthreading");
761
762         DB((dbg, LEVEL_1, "===> Performing jumpthreading on %+F\n", irg));
763
764         ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_IRN_VISITED);
765
766         changed = false;
767         do {
768                 rerun = false;
769                 irg_block_walk_graph(irg, thread_jumps, NULL, &rerun);
770                 changed |= rerun;
771         } while (rerun);
772
773         ir_free_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_IRN_VISITED);
774
775         confirm_irg_properties(irg,
776                 changed ? IR_GRAPH_PROPERTIES_NONE : IR_GRAPH_PROPERTIES_ALL);
777 }
778
779 /* Creates an ir_graph pass for opt_jumpthreading. */
780 ir_graph_pass_t *opt_jumpthreading_pass(const char *name)
781 {
782         return def_graph_pass(name ? name : "jumpthreading", opt_jumpthreading);
783 }