Combo: Ensure split by partition for Phi nodes.
[libfirm] / ir / opt / jumpthreading.c
1 /*
2  * Copyright (C) 1995-2010 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Path-Sensitive Jump Threading
23  * @date    10. Sep. 2006
24  * @author  Christoph Mallon, Matthias Braun
25  */
26 #include "config.h"
27
28 #include "iroptimize.h"
29
30 #include <assert.h>
31 #include <stdbool.h>
32 #include "array_t.h"
33 #include "debug.h"
34 #include "ircons.h"
35 #include "irgmod.h"
36 #include "irgopt.h"
37 #include "irgwalk.h"
38 #include "irnode.h"
39 #include "irnode_t.h"
40 #include "iredges.h"
41 #include "iredges_t.h"
42 #include "irtools.h"
43 #include "irgraph.h"
44 #include "tv.h"
45 #include "iroptimize.h"
46 #include "iropt_dbg.h"
47 #include "irpass.h"
48 #include "vrp.h"
49
50 #undef AVOID_PHIB
51
52 DEBUG_ONLY(static firm_dbg_module_t *dbg;)
53
54 /**
55  * Add the new predecessor x to node node, which is either a Block or a Phi
56  */
57 static void add_pred(ir_node* node, ir_node* x)
58 {
59         ir_node** ins;
60         int n;
61         int i;
62
63         assert(is_Block(node));
64
65         n = get_irn_arity(node);
66         NEW_ARR_A(ir_node*, ins, n + 1);
67         for (i = 0; i < n; i++)
68                 ins[i] = get_irn_n(node, i);
69         ins[n] = x;
70         set_irn_in(node, n + 1, ins);
71 }
72
73 static ir_node *ssa_second_def;
74 static ir_node *ssa_second_def_block;
75
76 static ir_node *search_def_and_create_phis(ir_node *block, ir_mode *mode,
77                                            int first)
78 {
79         int i;
80         int n_cfgpreds;
81         ir_graph *irg;
82         ir_node *phi;
83         ir_node **in;
84         ir_node *dummy;
85
86         /* In case of a bad input to a block we need to return the bad value */
87         if (is_Bad(block)) {
88                 ir_graph *irg = get_irn_irg(block);
89                 return new_r_Bad(irg, mode);
90         }
91
92         /* the other defs can't be marked for cases where a user of the original
93          * value is in the same block as the alternative definition.
94          * In this case we mustn't use the alternative definition.
95          * So we keep a flag that indicated whether we walked at least 1 block
96          * away and may use the alternative definition */
97         if (block == ssa_second_def_block && !first) {
98                 return ssa_second_def;
99         }
100
101         /* already processed this block? */
102         if (irn_visited(block)) {
103                 ir_node *value = (ir_node*) get_irn_link(block);
104                 return value;
105         }
106
107         irg = get_irn_irg(block);
108         assert(block != get_irg_start_block(irg));
109
110         /* a Block with only 1 predecessor needs no Phi */
111         n_cfgpreds = get_Block_n_cfgpreds(block);
112         if (n_cfgpreds == 1) {
113                 ir_node *pred_block = get_Block_cfgpred_block(block, 0);
114                 ir_node *value      = search_def_and_create_phis(pred_block, mode, 0);
115
116                 set_irn_link(block, value);
117                 mark_irn_visited(block);
118                 return value;
119         }
120
121         /* create a new Phi */
122         NEW_ARR_A(ir_node*, in, n_cfgpreds);
123         dummy = new_r_Dummy(irg, mode);
124         for (i = 0; i < n_cfgpreds; ++i)
125                 in[i] = dummy;
126
127         phi = new_r_Phi(block, n_cfgpreds, in, mode);
128         set_irn_link(block, phi);
129         mark_irn_visited(block);
130
131         /* set Phi predecessors */
132         for (i = 0; i < n_cfgpreds; ++i) {
133                 ir_node *pred_block = get_Block_cfgpred_block(block, i);
134                 ir_node *pred_val   = search_def_and_create_phis(pred_block, mode, 0);
135
136                 set_irn_n(phi, i, pred_val);
137         }
138
139         return phi;
140 }
141
142 /**
143  * Given a set of values this function constructs SSA-form for the users of the
144  * first value (the users are determined through the out-edges of the value).
145  * Uses the irn_visited flags. Works without using the dominance tree.
146  */
147 static void construct_ssa(ir_node *orig_block, ir_node *orig_val,
148                           ir_node *second_block, ir_node *second_val)
149 {
150         ir_graph *irg;
151         ir_mode *mode;
152
153         /* no need to do anything */
154         if (orig_val == second_val)
155                 return;
156
157         irg = get_irn_irg(orig_val);
158         inc_irg_visited(irg);
159
160         mode = get_irn_mode(orig_val);
161         set_irn_link(orig_block, orig_val);
162         mark_irn_visited(orig_block);
163
164         ssa_second_def_block = second_block;
165         ssa_second_def       = second_val;
166
167         /* Only fix the users of the first, i.e. the original node */
168         foreach_out_edge_safe(orig_val, edge) {
169                 ir_node *user = get_edge_src_irn(edge);
170                 int j = get_edge_src_pos(edge);
171                 ir_node *user_block = get_nodes_block(user);
172                 ir_node *newval;
173
174                 /* ignore keeps */
175                 if (is_End(user))
176                         continue;
177
178                 DB((dbg, LEVEL_3, ">>> Fixing user %+F (pred %d == %+F)\n", user, j, get_irn_n(user, j)));
179
180                 if (is_Phi(user)) {
181                         ir_node *pred_block = get_Block_cfgpred_block(user_block, j);
182                         newval = search_def_and_create_phis(pred_block, mode, 1);
183                 } else {
184                         newval = search_def_and_create_phis(user_block, mode, 1);
185                 }
186
187                 /* don't fix newly created Phis from the SSA construction */
188                 if (newval != user) {
189                         DB((dbg, LEVEL_4, ">>>> Setting input %d of %+F to %+F\n", j, user, newval));
190                         set_irn_n(user, j, newval);
191                 }
192         }
193 }
194
195 /**
196  * jumpthreading produces critical edges, e.g. B-C:
197  *     A         A
198  *  \ /       \  |
199  *   B    =>   B |
200  *  / \       / \|
201  *     C         C
202  *
203  * By splitting this critical edge more threadings might be possible.
204  */
205 static void split_critical_edge(ir_node *block, int pos)
206 {
207         ir_graph *irg = get_irn_irg(block);
208         ir_node *in[1];
209         ir_node *new_block;
210         ir_node *new_jmp;
211
212         in[0] = get_Block_cfgpred(block, pos);
213         new_block = new_r_Block(irg, 1, in);
214         new_jmp = new_r_Jmp(new_block);
215         set_Block_cfgpred(block, pos, new_jmp);
216 }
217
218 typedef struct jumpthreading_env_t {
219         ir_node       *true_block;
220         ir_node       *cmp;        /**< The Compare node that might be partial evaluated */
221         ir_relation    relation;   /**< The Compare mode of the Compare node. */
222         ir_node       *cnst;
223         ir_tarval     *tv;
224         ir_visited_t   visited_nr;
225
226         ir_node       *cnst_pred;   /**< the block before the constant */
227         int            cnst_pos;    /**< the pos to the constant block (needed to
228                                           kill that edge later) */
229 } jumpthreading_env_t;
230
231 static ir_node *copy_and_fix_node(const jumpthreading_env_t *env,
232                                   ir_node *block, ir_node *copy_block, int j,
233                                   ir_node *node)
234 {
235         int      i, arity;
236         ir_node *copy;
237
238         /* we can evaluate Phis right now, all other nodes get copied */
239         if (is_Phi(node)) {
240                 copy = get_Phi_pred(node, j);
241                 /* we might have to evaluate a Phi-cascade */
242                 if (get_irn_visited(copy) >= env->visited_nr) {
243                         copy = (ir_node*)get_irn_link(copy);
244                 }
245         } else {
246                 copy = exact_copy(node);
247                 set_nodes_block(copy, copy_block);
248
249                 assert(get_irn_mode(copy) != mode_X);
250
251                 arity = get_irn_arity(copy);
252                 for (i = 0; i < arity; ++i) {
253                         ir_node *pred     = get_irn_n(copy, i);
254                         ir_node *new_pred;
255
256                         if (get_nodes_block(pred) != block)
257                                 continue;
258
259                         if (get_irn_visited(pred) >= env->visited_nr) {
260                                 new_pred = (ir_node*)get_irn_link(pred);
261                         } else {
262                                 new_pred = copy_and_fix_node(env, block, copy_block, j, pred);
263                         }
264                         DB((dbg, LEVEL_2, ">> Set Pred of %+F to %+F\n", copy, new_pred));
265                         set_irn_n(copy, i, new_pred);
266                 }
267         }
268
269         set_irn_link(node, copy);
270         set_irn_visited(node, env->visited_nr);
271
272         return copy;
273 }
274
275 static void copy_and_fix(const jumpthreading_env_t *env, ir_node *block,
276                          ir_node *copy_block, int j)
277 {
278         /* Look at all nodes in the cond_block and copy them into pred */
279         foreach_out_edge(block, edge) {
280                 ir_node *node = get_edge_src_irn(edge);
281                 ir_node *copy;
282                 ir_mode *mode;
283
284                 if (is_End(node)) {
285                         /* edge is a Keep edge. If the end block is unreachable via normal
286                          * control flow, we must maintain end's reachability with Keeps.
287                          */
288                         keep_alive(copy_block);
289                         continue;
290                 }
291                 /* ignore control flow */
292                 mode = get_irn_mode(node);
293                 if (mode == mode_X || is_Cond(node) || is_Switch(node))
294                         continue;
295 #ifdef AVOID_PHIB
296                 /* we may not copy mode_b nodes, because this could produce Phi with
297                  * mode_bs which can't be handled in all backends. Instead we duplicate
298                  * the node and move it to its users */
299                 if (mode == mode_b) {
300                         ir_node *pred;
301                         int      pn;
302
303                         assert(is_Proj(node));
304
305                         pred = get_Proj_pred(node);
306                         pn   = get_Proj_proj(node);
307
308                         foreach_out_edge_safe(node, edge) {
309                                 ir_node *cmp_copy;
310                                 ir_node *user       = get_edge_src_irn(edge);
311                                 int pos             = get_edge_src_pos(edge);
312                                 ir_node *user_block = get_nodes_block(user);
313
314                                 if (user_block == block)
315                                         continue;
316
317                                 cmp_copy = exact_copy(pred);
318                                 set_nodes_block(cmp_copy, user_block);
319                                 copy = new_r_Proj(cmp_copy, mode_b, pn);
320                                 set_irn_n(user, pos, copy);
321                         }
322                         continue;
323                 }
324 #endif
325
326                 copy = copy_and_fix_node(env, block, copy_block, j, node);
327
328                 /* we might hit values in blocks that have already been processed by a
329                  * recursive find_phi_with_const() call */
330                 assert(get_irn_visited(copy) <= env->visited_nr);
331                 if (get_irn_visited(copy) >= env->visited_nr) {
332                         ir_node *prev_copy = (ir_node*)get_irn_link(copy);
333                         if (prev_copy != NULL)
334                                 set_irn_link(node, prev_copy);
335                 }
336         }
337
338         /* fix data-flow (and reconstruct SSA if needed) */
339         foreach_out_edge(block, edge) {
340                 ir_node *node = get_edge_src_irn(edge);
341                 ir_node *copy_node;
342                 ir_mode *mode;
343
344                 mode = get_irn_mode(node);
345                 if (mode == mode_X || is_Cond(node) || is_Switch(node))
346                         continue;
347 #ifdef AVOID_PHIB
348                 if (mode == mode_b)
349                         continue;
350 #endif
351
352                 DB((dbg, LEVEL_2, ">> Fixing users of %+F\n", node));
353
354                 copy_node = (ir_node*)get_irn_link(node);
355                 construct_ssa(block, node, copy_block, copy_node);
356         }
357
358         /* make sure new nodes are kept alive if old nodes were */
359         ir_graph *irg = get_irn_irg(block);
360         ir_node  *end = get_irg_end(irg);
361         for (int i = 0, arity = get_End_n_keepalives(end); i < arity; ++i) {
362                 ir_node *keep = get_End_keepalive(end, i);
363                 if (get_irn_visited(keep) < env->visited_nr || is_Block(keep))
364                         continue;
365                 ir_node *copy = get_irn_link(keep);
366                 add_End_keepalive(end, copy);
367         }
368 }
369
370 /**
371  * returns whether the cmp evaluates to true or false, or can't be evaluated!
372  * 1: true, 0: false, -1: can't evaluate
373  *
374  * @param relation  the compare mode of the Compare
375  * @param tv_left   the left tarval
376  * @param tv_right  the right tarval
377  */
378 static int eval_cmp_tv(ir_relation relation, ir_tarval *tv_left,
379                        ir_tarval *tv_right)
380 {
381         ir_relation cmp_result = tarval_cmp(tv_left, tv_right);
382
383         /* does the compare evaluate to true? */
384         if (cmp_result == ir_relation_false)
385                 return -1;
386         if ((cmp_result & relation) != 0)
387                 return 1;
388
389         return 0;
390 }
391
392 #if 0
393 /* Matze: disabled, check first if the compare still is correct */
394
395 /**
396  * returns whether the cmp evaluates to true or false according to vrp
397  * information , or can't be evaluated!
398  * 1: true, 0: false, -1: can't evaluate
399  *
400  * @param relation  the compare mode of the Compare
401  * @param left      the left node
402  * @param right     the right node
403  */
404 static int eval_cmp_vrp(ir_relation relation, ir_node *left, ir_node *right)
405 {
406         ir_relation cmp_result = vrp_cmp(left, right);
407         /* does the compare evaluate to true? */
408         if (cmp_result == ir_relation_false)
409                 return -1;
410
411         if ((cmp_result & relation) != cmp_result) {
412                 if ((cmp_result & relation) != 0) {
413                         return -1;
414                 }
415                 return 0;
416         }
417         return 1;
418 }
419 #endif
420
421 /**
422  * returns whether the cmp evaluates to true or false, or can't be evaluated!
423  * 1: true, 0: false, -1: can't evaluate
424  *
425  * @param env      the environment
426  * @param cand     the candidate node, either a Const or a Confirm
427  */
428 static int eval_cmp(jumpthreading_env_t *env, ir_node *cand)
429 {
430         if (is_Const(cand)) {
431                 ir_tarval *tv_cand = get_Const_tarval(cand);
432                 ir_tarval *tv_cmp  = get_Const_tarval(env->cnst);
433
434                 return eval_cmp_tv(env->relation, tv_cand, tv_cmp);
435         } else { /* a Confirm */
436                 ir_tarval *res = computed_value_Cmp_Confirm(env->cmp, cand, env->cnst, env->relation);
437
438                 if (res == tarval_bad)
439                         return -1;
440                 return res == tarval_b_true;
441         }
442 }
443
444 /**
445  * Check for Const or Confirm with Const.
446  */
447 static int is_Const_or_Confirm(const ir_node *node)
448 {
449         if (is_Confirm(node))
450                 node = get_Confirm_bound(node);
451         return is_Const(node);
452 }
453
454 /**
455  * get the tarval of a Const or Confirm with
456  */
457 static ir_tarval *get_Const_or_Confirm_tarval(const ir_node *node)
458 {
459         if (is_Confirm(node)) {
460                 if (get_Confirm_bound(node))
461                         node = get_Confirm_bound(node);
462         }
463         return get_Const_tarval(node);
464 }
465
466 static ir_node *find_const_or_confirm(jumpthreading_env_t *env, ir_node *jump,
467                                       ir_node *value)
468 {
469         ir_node *block = get_nodes_block(jump);
470
471         if (irn_visited_else_mark(value))
472                 return NULL;
473
474         if (is_Const_or_Confirm(value)) {
475                 if (eval_cmp(env, value) <= 0)
476                         return NULL;
477
478                 DB((
479                         dbg, LEVEL_1,
480                         "> Found jump threading candidate %+F->%+F\n",
481                         block, env->true_block
482                 ));
483
484                 /* adjust true_block to point directly towards our jump */
485                 add_pred(env->true_block, jump);
486
487                 split_critical_edge(env->true_block, 0);
488
489                 /* we need a bigger visited nr when going back */
490                 env->visited_nr++;
491
492                 return block;
493         }
494
495         if (is_Phi(value)) {
496                 int i, arity;
497
498                 /* the Phi has to be in the same Block as the Jmp */
499                 if (get_nodes_block(value) != block)
500                         return NULL;
501
502                 arity = get_irn_arity(value);
503                 for (i = 0; i < arity; ++i) {
504                         ir_node *copy_block;
505                         ir_node *phi_pred = get_Phi_pred(value, i);
506                         ir_node *cfgpred  = get_Block_cfgpred(block, i);
507
508                         copy_block = find_const_or_confirm(env, cfgpred, phi_pred);
509                         if (copy_block == NULL)
510                                 continue;
511
512                         /* copy duplicated nodes in copy_block and fix SSA */
513                         copy_and_fix(env, block, copy_block, i);
514
515                         if (copy_block == get_nodes_block(cfgpred)) {
516                                 env->cnst_pred = block;
517                                 env->cnst_pos  = i;
518                         }
519
520                         /* return now as we can't process more possibilities in 1 run */
521                         return copy_block;
522                 }
523         }
524
525         return NULL;
526 }
527
528 static ir_node *find_candidate(jumpthreading_env_t *env, ir_node *jump,
529                                ir_node *value)
530 {
531         ir_node *block = get_nodes_block(jump);
532
533         if (irn_visited_else_mark(value)) {
534                 return NULL;
535         }
536
537         if (is_Const_or_Confirm(value)) {
538                 ir_tarval *tv = get_Const_or_Confirm_tarval(value);
539
540                 if (tv != env->tv)
541                         return NULL;
542
543                 DB((
544                         dbg, LEVEL_1,
545                         "> Found jump threading candidate %+F->%+F\n",
546                         block, env->true_block
547                 ));
548
549                 /* adjust true_block to point directly towards our jump */
550                 add_pred(env->true_block, jump);
551
552                 split_critical_edge(env->true_block, 0);
553
554                 /* we need a bigger visited nr when going back */
555                 env->visited_nr++;
556
557                 return block;
558         }
559         if (is_Phi(value)) {
560                 int i, arity;
561
562                 /* the Phi has to be in the same Block as the Jmp */
563                 if (get_nodes_block(value) != block)
564                         return NULL;
565
566                 arity = get_irn_arity(value);
567                 for (i = 0; i < arity; ++i) {
568                         ir_node *copy_block;
569                         ir_node *phi_pred = get_Phi_pred(value, i);
570                         ir_node *cfgpred  = get_Block_cfgpred(block, i);
571
572                         copy_block = find_candidate(env, cfgpred, phi_pred);
573                         if (copy_block == NULL)
574                                 continue;
575
576                         /* copy duplicated nodes in copy_block and fix SSA */
577                         copy_and_fix(env, block, copy_block, i);
578
579                         if (copy_block == get_nodes_block(cfgpred)) {
580                                 env->cnst_pred = block;
581                                 env->cnst_pos  = i;
582                         }
583
584                         /* return now as we can't process more possibilities in 1 run */
585                         return copy_block;
586                 }
587         }
588         if (is_Cmp(value)) {
589                 ir_node    *cmp      = value;
590                 ir_node    *left     = get_Cmp_left(cmp);
591                 ir_node    *right    = get_Cmp_right(cmp);
592                 ir_relation relation = get_Cmp_relation(cmp);
593
594                 /* we assume that the constant is on the right side, swap left/right
595                  * if needed */
596                 if (is_Const(left)) {
597                         ir_node *t = left;
598                         left       = right;
599                         right      = t;
600
601                         relation   = get_inversed_relation(relation);
602                 }
603
604                 if (!is_Const(right))
605                         return NULL;
606
607                 if (get_nodes_block(left) != block)
608                         return NULL;
609
610                 /* negate condition when we're looking for the false block */
611                 if (env->tv == tarval_b_false) {
612                         relation = get_negated_relation(relation);
613                 }
614
615                 /* (recursively) look if a pred of a Phi is a constant or a Confirm */
616                 env->cmp      = cmp;
617                 env->relation = relation;
618                 env->cnst     = right;
619
620                 return find_const_or_confirm(env, jump, left);
621         }
622
623         return NULL;
624 }
625
626 /**
627  * Block-walker: searches for the following construct
628  *
629  *  Const or Phi with constants
630  *           |
631  *          Cmp
632  *           |
633  *         Cond
634  *          /
635  *       ProjX
636  *        /
637  *     Block
638  */
639 static void thread_jumps(ir_node* block, void* data)
640 {
641         jumpthreading_env_t env;
642         bool *changed = (bool*)data;
643         ir_node *selector;
644         ir_node *projx;
645         ir_node *cond;
646         ir_node *copy_block;
647         int      selector_evaluated;
648         ir_graph *irg;
649         ir_node *badX;
650         int      cnst_pos;
651
652         /* we do not deal with Phis, so restrict this to exactly one cfgpred */
653         if (get_Block_n_cfgpreds(block) != 1)
654                 return;
655
656         projx = get_Block_cfgpred(block, 0);
657         if (!is_Proj(projx))
658                 return;
659         assert(get_irn_mode(projx) == mode_X);
660
661         cond = get_Proj_pred(projx);
662         /* TODO handle switch Conds */
663         if (!is_Cond(cond))
664                 return;
665
666         /* handle cases that can be immediately evaluated */
667         selector = get_Cond_selector(cond);
668         selector_evaluated = -1;
669         if (is_Cmp(selector)) {
670                 ir_node *left  = get_Cmp_left(selector);
671                 ir_node *right = get_Cmp_right(selector);
672                 if (is_Const(left) && is_Const(right)) {
673                         ir_relation relation = get_Cmp_relation(selector);
674                         ir_tarval  *tv_left  = get_Const_tarval(left);
675                         ir_tarval  *tv_right = get_Const_tarval(right);
676
677                         selector_evaluated = eval_cmp_tv(relation, tv_left, tv_right);
678                 }
679 #if 0
680                 if (selector_evaluated < 0) {
681                         /* This is only the case if the predecessor nodes are not
682                          * constant or the comparison could not be evaluated.
683                          * Try with VRP information now.
684                          */
685                         selector_evaluated = eval_cmp_vrp(relation, left, right);
686                 }
687 #endif
688         } else if (is_Const_or_Confirm(selector)) {
689                 ir_tarval *tv = get_Const_or_Confirm_tarval(selector);
690                 if (tv == tarval_b_true) {
691                         selector_evaluated = 1;
692                 } else {
693                         assert(tv == tarval_b_false);
694                         selector_evaluated = 0;
695                 }
696         }
697
698         env.cnst_pred = NULL;
699         if (get_Proj_proj(projx) == pn_Cond_false) {
700                 env.tv = tarval_b_false;
701                 if (selector_evaluated >= 0)
702                         selector_evaluated = !selector_evaluated;
703         } else {
704                 env.tv = tarval_b_true;
705         }
706
707         if (selector_evaluated == 0) {
708                 ir_graph *irg = get_irn_irg(block);
709                 ir_node  *bad = new_r_Bad(irg, mode_X);
710                 exchange(projx, bad);
711                 *changed = true;
712                 return;
713         } else if (selector_evaluated == 1) {
714                 dbg_info *dbgi = get_irn_dbg_info(selector);
715                 ir_node  *jmp  = new_rd_Jmp(dbgi, get_nodes_block(projx));
716                 DBG_OPT_JUMPTHREADING(projx, jmp);
717                 exchange(projx, jmp);
718                 *changed = true;
719                 return;
720         }
721
722         /* (recursively) look if a pred of a Phi is a constant or a Confirm */
723         env.true_block = block;
724         irg = get_irn_irg(block);
725         inc_irg_visited(irg);
726         env.visited_nr = get_irg_visited(irg);
727
728         copy_block = find_candidate(&env, projx, selector);
729         if (copy_block == NULL)
730                 return;
731
732         /* We might thread the condition block of an infinite loop,
733          * such that there is no path to End anymore. */
734         keep_alive(block);
735
736         /* we have to remove the edge towards the pred as the pred now
737          * jumps into the true_block. We also have to shorten Phis
738          * in our block because of this */
739         badX     = new_r_Bad(irg, mode_X);
740         cnst_pos = env.cnst_pos;
741
742         /* shorten Phis */
743         foreach_out_edge_safe(env.cnst_pred, edge) {
744                 ir_node *node = get_edge_src_irn(edge);
745
746                 if (is_Phi(node)) {
747                         ir_node *bad = new_r_Bad(irg, get_irn_mode(node));
748                         set_Phi_pred(node, cnst_pos, bad);
749                 }
750         }
751
752         set_Block_cfgpred(env.cnst_pred, cnst_pos, badX);
753
754         /* the graph is changed now */
755         *changed = true;
756 }
757
758 void opt_jumpthreading(ir_graph* irg)
759 {
760         bool changed;
761         bool rerun;
762
763         assure_irg_properties(irg,
764                 IR_GRAPH_PROPERTY_NO_UNREACHABLE_CODE
765                 | IR_GRAPH_PROPERTY_CONSISTENT_OUT_EDGES
766                 | IR_GRAPH_PROPERTY_NO_CRITICAL_EDGES);
767
768         FIRM_DBG_REGISTER(dbg, "firm.opt.jumpthreading");
769
770         DB((dbg, LEVEL_1, "===> Performing jumpthreading on %+F\n", irg));
771
772         ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_IRN_VISITED);
773
774         changed = false;
775         do {
776                 rerun = false;
777                 irg_block_walk_graph(irg, thread_jumps, NULL, &rerun);
778                 changed |= rerun;
779         } while (rerun);
780
781         ir_free_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_IRN_VISITED);
782
783         confirm_irg_properties(irg,
784                 changed ? IR_GRAPH_PROPERTIES_NONE : IR_GRAPH_PROPERTIES_ALL);
785 }
786
787 /* Creates an ir_graph pass for opt_jumpthreading. */
788 ir_graph_pass_t *opt_jumpthreading_pass(const char *name)
789 {
790         return def_graph_pass(name ? name : "jumpthreading", opt_jumpthreading);
791 }  /* opt_jumpthreading_pass */