43e1433c5ada593e3d7f612903d86ace6bce5429
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  */
25 #include "config.h"
26
27 #include <string.h>
28
29 #include "pset_new.h"
30 #include "ident.h"
31 #include "irnode_t.h"
32 #include "irgraph_t.h"
33 #include "irmode_t.h"
34 #include "irbackedge_t.h"
35 #include "irdump.h"
36 #include "irop_t.h"
37 #include "irprog_t.h"
38 #include "iredgekinds.h"
39 #include "iredges_t.h"
40 #include "ircons.h"
41 #include "error.h"
42
43 #include "irhooks.h"
44 #include "irtools.h"
45 #include "util.h"
46
47 #include "beinfo.h"
48
49 /* some constants fixing the positions of nodes predecessors
50    in the in array */
51 #define CALL_PARAM_OFFSET     (n_Call_max+1)
52 #define BUILTIN_PARAM_OFFSET  (n_Builtin_max+1)
53 #define SEL_INDEX_OFFSET      (n_Sel_max+1)
54 #define RETURN_RESULT_OFFSET  (n_Return_max+1)
55 #define END_KEEPALIVE_OFFSET  0
56
57 static const char *relation_names [] = {
58         "false",
59         "equal",
60         "less",
61         "less_equal",
62         "greater",
63         "greater_equal",
64         "less_greater",
65         "less_equal_greater",
66         "unordered",
67         "unordered_equal",
68         "unordered_less",
69         "unordered_less_equal",
70         "unordered_greater",
71         "unordered_greater_equal",
72         "not_equal",
73         "true"
74 };
75
76 const char *get_relation_string(ir_relation relation)
77 {
78         assert(relation < (ir_relation)ARRAY_SIZE(relation_names));
79         return relation_names[relation];
80 }
81
82 ir_relation get_negated_relation(ir_relation relation)
83 {
84         return relation ^ ir_relation_true;
85 }
86
87 ir_relation get_inversed_relation(ir_relation relation)
88 {
89         ir_relation code    = relation & ~(ir_relation_less|ir_relation_greater);
90         bool        less    = relation & ir_relation_less;
91         bool        greater = relation & ir_relation_greater;
92         code |= (less ? ir_relation_greater : 0) | (greater ? ir_relation_less : 0);
93         return code;
94 }
95
96 /**
97  * Indicates, whether additional data can be registered to ir nodes.
98  * If set to 1, this is not possible anymore.
99  */
100 static int forbid_new_data = 0;
101
102 /**
103  * The amount of additional space for custom data to be allocated upon
104  * creating a new node.
105  */
106 unsigned firm_add_node_size = 0;
107
108
109 /* register new space for every node */
110 unsigned firm_register_additional_node_data(unsigned size)
111 {
112         assert(!forbid_new_data && "Too late to register additional node data");
113
114         if (forbid_new_data)
115                 return 0;
116
117         return firm_add_node_size += size;
118 }
119
120
121 void init_irnode(void)
122 {
123         /* Forbid the addition of new data to an ir node. */
124         forbid_new_data = 1;
125 }
126
127 struct struct_align {
128         char c;
129         struct s {
130                 int i;
131                 float f;
132                 double d;
133         } s;
134 };
135
136 /*
137  * irnode constructor.
138  * Create a new irnode in irg, with an op, mode, arity and
139  * some incoming irnodes.
140  * If arity is negative, a node with a dynamic array is created.
141  */
142 ir_node *new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op,
143                      ir_mode *mode, int arity, ir_node *const *in)
144 {
145         ir_node *res;
146         unsigned align = offsetof(struct struct_align, s) - 1;
147         unsigned add_node_size = (firm_add_node_size + align) & ~align;
148         size_t node_size = offsetof(ir_node, attr) + op->attr_size + add_node_size;
149         char *p;
150         int i;
151
152         assert(irg);
153         assert(op);
154         assert(mode);
155         p = (char*)obstack_alloc(irg->obst, node_size);
156         memset(p, 0, node_size);
157         res = (ir_node *)(p + add_node_size);
158
159         res->kind     = k_ir_node;
160         res->op       = op;
161         res->mode     = mode;
162         res->visited  = 0;
163         res->node_idx = irg_register_node_idx(irg, res);
164         res->link     = NULL;
165         res->deps     = NULL;
166
167         if (arity < 0) {
168                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
169         } else {
170                 /* not nice but necessary: End and Sync must always have a flexible array */
171                 if (op == op_End || op == op_Sync)
172                         res->in = NEW_ARR_F(ir_node *, (arity+1));
173                 else
174                         res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
175                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
176         }
177
178         res->in[0]   = block;
179         set_irn_dbg_info(res, db);
180         res->out     = NULL;
181         res->node_nr = get_irp_new_node_nr();
182
183         for (i = 0; i < EDGE_KIND_LAST; ++i) {
184                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
185                 /* edges will be build immediately */
186                 res->edge_info[i].edges_built = 1;
187                 res->edge_info[i].out_count = 0;
188         }
189
190         /* don't put this into the for loop, arity is -1 for some nodes! */
191         edges_notify_edge(res, -1, res->in[0], NULL, irg);
192         for (i = 1; i <= arity; ++i)
193                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
194
195         hook_new_node(irg, res);
196         if (get_irg_phase_state(irg) == phase_backend) {
197                 be_info_new_node(res);
198         }
199
200         return res;
201 }
202
203 /*-- getting some parameters from ir_nodes --*/
204
205 int (is_ir_node)(const void *thing)
206 {
207         return is_ir_node_(thing);
208 }
209
210 int (get_irn_arity)(const ir_node *node)
211 {
212         return get_irn_arity_(node);
213 }
214
215 /* Returns the array with ins. This array is shifted with respect to the
216    array accessed by get_irn_n: The block operand is at position 0 not -1.
217    (@@@ This should be changed.)
218    The order of the predecessors in this array is not guaranteed, except that
219    lists of operands as predecessors of Block or arguments of a Call are
220    consecutive. */
221 ir_node **get_irn_in(const ir_node *node)
222 {
223         return node->in;
224 }
225
226 void set_irn_in(ir_node *node, int arity, ir_node **in)
227 {
228         int i;
229         ir_node *** pOld_in;
230         ir_graph *irg = get_irn_irg(node);
231
232         pOld_in = &node->in;
233
234
235         for (i = 0; i < arity; i++) {
236                 if (i < (int)ARR_LEN(*pOld_in)-1)
237                         edges_notify_edge(node, i, in[i], (*pOld_in)[i+1], irg);
238                 else
239                         edges_notify_edge(node, i, in[i], NULL,            irg);
240         }
241         for (;i < (int)ARR_LEN(*pOld_in)-1; i++) {
242                 edges_notify_edge(node, i, NULL, (*pOld_in)[i+1], irg);
243         }
244
245         if (arity != (int)ARR_LEN(*pOld_in) - 1) {
246                 ir_node * block = (*pOld_in)[0];
247                 *pOld_in = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
248                 (*pOld_in)[0] = block;
249         }
250         fix_backedges(irg->obst, node);
251
252         memcpy((*pOld_in) + 1, in, sizeof(ir_node *) * arity);
253
254         /* update irg flags */
255         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
256 }
257
258 ir_node *(get_irn_n)(const ir_node *node, int n)
259 {
260         return get_irn_n_(node, n);
261 }
262
263 void set_irn_n(ir_node *node, int n, ir_node *in)
264 {
265         ir_graph *irg = get_irn_irg(node);
266         assert(node && node->kind == k_ir_node);
267         assert(-1 <= n);
268         assert(n < get_irn_arity(node));
269         assert(in && in->kind == k_ir_node);
270
271         /* Call the hook */
272         hook_set_irn_n(node, n, in, node->in[n + 1]);
273
274         /* Here, we rely on src and tgt being in the current ir graph */
275         edges_notify_edge(node, n, in, node->in[n + 1], irg);
276
277         node->in[n + 1] = in;
278
279         /* update irg flags */
280         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
281 }
282
283 int add_irn_n(ir_node *node, ir_node *in)
284 {
285         int pos;
286         ir_graph *irg = get_irn_irg(node);
287
288         assert(node->op->opar == oparity_dynamic);
289         pos = ARR_LEN(node->in) - 1;
290         ARR_APP1(ir_node *, node->in, in);
291         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
292
293         /* Call the hook */
294         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
295
296         return pos;
297 }
298
299 void del_Sync_n(ir_node *n, int i)
300 {
301         int      arity     = get_Sync_n_preds(n);
302         ir_node *last_pred = get_Sync_pred(n, arity - 1);
303         set_Sync_pred(n, i, last_pred);
304         edges_notify_edge(n, arity - 1, NULL, last_pred, get_irn_irg(n));
305         ARR_SHRINKLEN(get_irn_in(n), arity);
306 }
307
308 int (get_irn_deps)(const ir_node *node)
309 {
310         return get_irn_deps_(node);
311 }
312
313 ir_node *(get_irn_dep)(const ir_node *node, int pos)
314 {
315         return get_irn_dep_(node, pos);
316 }
317
318 void (set_irn_dep)(ir_node *node, int pos, ir_node *dep)
319 {
320         set_irn_dep_(node, pos, dep);
321 }
322
323 int add_irn_dep(ir_node *node, ir_node *dep)
324 {
325         int res = 0;
326
327         /* DEP edges are only allowed in backend phase */
328         assert(get_irg_phase_state(get_irn_irg(node)) == phase_backend);
329         if (node->deps == NULL) {
330                 node->deps = NEW_ARR_F(ir_node *, 1);
331                 node->deps[0] = dep;
332         } else {
333                 int i, n;
334                 int first_zero = -1;
335
336                 for (i = 0, n = ARR_LEN(node->deps); i < n; ++i) {
337                         if (node->deps[i] == NULL)
338                                 first_zero = i;
339
340                         if (node->deps[i] == dep)
341                                 return i;
342                 }
343
344                 if (first_zero >= 0) {
345                         node->deps[first_zero] = dep;
346                         res = first_zero;
347                 } else {
348                         ARR_APP1(ir_node *, node->deps, dep);
349                         res = n;
350                 }
351         }
352
353         edges_notify_edge_kind(node, res, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
354
355         return res;
356 }
357
358 void add_irn_deps(ir_node *tgt, ir_node *src)
359 {
360         int i, n;
361
362         for (i = 0, n = get_irn_deps(src); i < n; ++i)
363                 add_irn_dep(tgt, get_irn_dep(src, i));
364 }
365
366
367 ir_mode *(get_irn_mode)(const ir_node *node)
368 {
369         return get_irn_mode_(node);
370 }
371
372 void (set_irn_mode)(ir_node *node, ir_mode *mode)
373 {
374         set_irn_mode_(node, mode);
375 }
376
377 ir_op *(get_irn_op)(const ir_node *node)
378 {
379         return get_irn_op_(node);
380 }
381
382 /* should be private to the library: */
383 void (set_irn_op)(ir_node *node, ir_op *op)
384 {
385         set_irn_op_(node, op);
386 }
387
388 unsigned (get_irn_opcode)(const ir_node *node)
389 {
390         return get_irn_opcode_(node);
391 }
392
393 const char *get_irn_opname(const ir_node *node)
394 {
395         assert(node);
396         if (is_Phi0(node)) return "Phi0";
397         return get_id_str(node->op->name);
398 }
399
400 ident *get_irn_opident(const ir_node *node)
401 {
402         assert(node);
403         return node->op->name;
404 }
405
406 ir_visited_t (get_irn_visited)(const ir_node *node)
407 {
408         return get_irn_visited_(node);
409 }
410
411 void (set_irn_visited)(ir_node *node, ir_visited_t visited)
412 {
413         set_irn_visited_(node, visited);
414 }
415
416 void (mark_irn_visited)(ir_node *node)
417 {
418         mark_irn_visited_(node);
419 }
420
421 int (irn_visited)(const ir_node *node)
422 {
423         return irn_visited_(node);
424 }
425
426 int (irn_visited_else_mark)(ir_node *node)
427 {
428         return irn_visited_else_mark_(node);
429 }
430
431 void (set_irn_link)(ir_node *node, void *link)
432 {
433         set_irn_link_(node, link);
434 }
435
436 void *(get_irn_link)(const ir_node *node)
437 {
438         return get_irn_link_(node);
439 }
440
441 op_pin_state (get_irn_pinned)(const ir_node *node)
442 {
443         return get_irn_pinned_(node);
444 }
445
446 op_pin_state (is_irn_pinned_in_irg) (const ir_node *node)
447 {
448         return is_irn_pinned_in_irg_(node);
449 }
450
451 void set_irn_pinned(ir_node *node, op_pin_state state)
452 {
453         /* due to optimization an opt may be turned into a Tuple */
454         if (is_Tuple(node))
455                 return;
456
457         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
458         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
459
460         node->attr.except.pin_state = state;
461 }
462
463 /* Outputs a unique number for this node */
464 long get_irn_node_nr(const ir_node *node)
465 {
466         assert(node);
467         return node->node_nr;
468 }
469
470 void *(get_irn_generic_attr)(ir_node *node)
471 {
472         assert(is_ir_node(node));
473         return get_irn_generic_attr_(node);
474 }
475
476 const void *(get_irn_generic_attr_const)(const ir_node *node)
477 {
478         assert(is_ir_node(node));
479         return get_irn_generic_attr_const_(node);
480 }
481
482 unsigned (get_irn_idx)(const ir_node *node)
483 {
484         assert(is_ir_node(node));
485         return get_irn_idx_(node);
486 }
487
488 int get_irn_pred_pos(ir_node *node, ir_node *arg)
489 {
490         int i;
491         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
492                 if (get_irn_n(node, i) == arg)
493                         return i;
494         }
495         return -1;
496 }
497
498 /** manipulate fields of individual nodes **/
499
500 ir_node *(get_nodes_block)(const ir_node *node)
501 {
502         return get_nodes_block_(node);
503 }
504
505 void set_nodes_block(ir_node *node, ir_node *block)
506 {
507         assert(node->op != op_Block);
508         set_irn_n(node, -1, block);
509 }
510
511 /* Test whether arbitrary node is frame pointer, i.e. Proj(pn_Start_P_frame_base)
512  * from Start.  If so returns frame type, else Null. */
513 ir_type *is_frame_pointer(const ir_node *n)
514 {
515         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
516                 ir_node *start = get_Proj_pred(n);
517                 if (is_Start(start)) {
518                         return get_irg_frame_type(get_irn_irg(start));
519                 }
520         }
521         return NULL;
522 }
523
524 ir_node **get_Block_cfgpred_arr(ir_node *node)
525 {
526         assert(is_Block(node));
527         return (ir_node **)&(get_irn_in(node)[1]);
528 }
529
530 int (get_Block_n_cfgpreds)(const ir_node *node)
531 {
532         return get_Block_n_cfgpreds_(node);
533 }
534
535 ir_node *(get_Block_cfgpred)(const ir_node *node, int pos)
536 {
537         return get_Block_cfgpred_(node, pos);
538 }
539
540 void set_Block_cfgpred(ir_node *node, int pos, ir_node *pred)
541 {
542         assert(is_Block(node));
543         set_irn_n(node, pos, pred);
544 }
545
546 int get_Block_cfgpred_pos(const ir_node *block, const ir_node *pred)
547 {
548         int i;
549
550         for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
551                 if (get_Block_cfgpred_block(block, i) == pred)
552                         return i;
553         }
554         return -1;
555 }
556
557 ir_node *(get_Block_cfgpred_block)(const ir_node *node, int pos)
558 {
559         return get_Block_cfgpred_block_(node, pos);
560 }
561
562 int get_Block_matured(const ir_node *node)
563 {
564         assert(is_Block(node));
565         return (int)node->attr.block.is_matured;
566 }
567
568 void set_Block_matured(ir_node *node, int matured)
569 {
570         assert(is_Block(node));
571         node->attr.block.is_matured = matured;
572 }
573
574 ir_visited_t (get_Block_block_visited)(const ir_node *node)
575 {
576         return get_Block_block_visited_(node);
577 }
578
579 void (set_Block_block_visited)(ir_node *node, ir_visited_t visit)
580 {
581         set_Block_block_visited_(node, visit);
582 }
583
584 void (mark_Block_block_visited)(ir_node *node)
585 {
586         mark_Block_block_visited_(node);
587 }
588
589 int (Block_block_visited)(const ir_node *node)
590 {
591         return Block_block_visited_(node);
592 }
593
594 ir_extblk *get_Block_extbb(const ir_node *block)
595 {
596         ir_extblk *res;
597         assert(is_Block(block));
598         res = block->attr.block.extblk;
599         assert(res == NULL || is_ir_extbb(res));
600         return res;
601 }
602
603 void set_Block_extbb(ir_node *block, ir_extblk *extblk)
604 {
605         assert(is_Block(block));
606         assert(extblk == NULL || is_ir_extbb(extblk));
607         block->attr.block.extblk = extblk;
608 }
609
610 /* returns the graph of a Block. */
611 ir_graph *(get_Block_irg)(const ir_node *block)
612 {
613         return get_Block_irg_(block);
614 }
615
616 ir_entity *create_Block_entity(ir_node *block)
617 {
618         ir_entity *entity;
619         assert(is_Block(block));
620
621         entity = block->attr.block.entity;
622         if (entity == NULL) {
623                 ir_label_t  nr;
624                 ir_type   *glob;
625
626                 glob = get_glob_type();
627                 entity = new_entity(glob, id_unique("block_%u"), get_code_type());
628                 set_entity_visibility(entity, ir_visibility_local);
629                 set_entity_linkage(entity, IR_LINKAGE_CONSTANT);
630                 nr = get_irp_next_label_nr();
631                 set_entity_label(entity, nr);
632                 set_entity_compiler_generated(entity, 1);
633
634                 block->attr.block.entity = entity;
635         }
636         return entity;
637 }
638
639 ir_entity *get_Block_entity(const ir_node *block)
640 {
641         assert(is_Block(block));
642         return block->attr.block.entity;
643 }
644
645 void set_Block_entity(ir_node *block, ir_entity *entity)
646 {
647         assert(is_Block(block));
648         assert(get_entity_type(entity) == get_code_type());
649         block->attr.block.entity = entity;
650 }
651
652 int has_Block_entity(const ir_node *block)
653 {
654         return block->attr.block.entity != NULL;
655 }
656
657 ir_node *(get_Block_phis)(const ir_node *block)
658 {
659         return get_Block_phis_(block);
660 }
661
662 void (set_Block_phis)(ir_node *block, ir_node *phi)
663 {
664         set_Block_phis_(block, phi);
665 }
666
667 void (add_Block_phi)(ir_node *block, ir_node *phi)
668 {
669         add_Block_phi_(block, phi);
670 }
671
672 /* Get the Block mark (single bit). */
673 unsigned (get_Block_mark)(const ir_node *block)
674 {
675         return get_Block_mark_(block);
676 }
677
678 /* Set the Block mark (single bit). */
679 void (set_Block_mark)(ir_node *block, unsigned mark)
680 {
681         set_Block_mark_(block, mark);
682 }
683
684 int get_End_n_keepalives(const ir_node *end)
685 {
686         assert(is_End(end));
687         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
688 }
689
690 ir_node *get_End_keepalive(const ir_node *end, int pos)
691 {
692         assert(is_End(end));
693         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
694 }
695
696 void add_End_keepalive(ir_node *end, ir_node *ka)
697 {
698         assert(is_End(end));
699         add_irn_n(end, ka);
700 }
701
702 void set_End_keepalive(ir_node *end, int pos, ir_node *ka)
703 {
704         assert(is_End(end));
705         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
706 }
707
708 /* Set new keep-alives */
709 void set_End_keepalives(ir_node *end, int n, ir_node *in[])
710 {
711         size_t e;
712         int    i;
713         ir_graph *irg = get_irn_irg(end);
714
715         /* notify that edges are deleted */
716         for (e = END_KEEPALIVE_OFFSET; e < ARR_LEN(end->in) - 1; ++e) {
717                 edges_notify_edge(end, e, NULL, end->in[e + 1], irg);
718         }
719         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
720
721         for (i = 0; i < n; ++i) {
722                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
723                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
724         }
725
726         /* update irg flags */
727         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
728 }
729
730 /* Set new keep-alives from old keep-alives, skipping irn */
731 void remove_End_keepalive(ir_node *end, ir_node *irn)
732 {
733         int      n = get_End_n_keepalives(end);
734         int      i, idx;
735         ir_graph *irg;
736
737         idx = -1;
738         for (i = n -1; i >= 0; --i) {
739                 ir_node *old_ka = end->in[1 + END_KEEPALIVE_OFFSET + i];
740
741                 /* find irn */
742                 if (old_ka == irn) {
743                         idx = i;
744                         goto found;
745                 }
746         }
747         return;
748 found:
749         irg = get_irn_irg(end);
750
751         /* remove the edge */
752         edges_notify_edge(end, idx, NULL, irn, irg);
753
754         if (idx != n - 1) {
755                 /* exchange with the last one */
756                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
757                 edges_notify_edge(end, n - 1, NULL, old, irg);
758                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
759                 edges_notify_edge(end, idx, old, NULL, irg);
760         }
761         /* now n - 1 keeps, 1 block input */
762         ARR_RESIZE(ir_node *, end->in, (n - 1) + 1 + END_KEEPALIVE_OFFSET);
763
764         /* update irg flags */
765         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
766 }
767
768 /* remove Bads, NoMems and doublets from the keep-alive set */
769 void remove_End_Bads_and_doublets(ir_node *end)
770 {
771         pset_new_t keeps;
772         int        idx, n = get_End_n_keepalives(end);
773         ir_graph   *irg;
774         bool       changed = false;
775
776         if (n <= 0)
777                 return;
778
779         irg = get_irn_irg(end);
780         pset_new_init(&keeps);
781
782         for (idx = n - 1; idx >= 0; --idx) {
783                 ir_node *ka = get_End_keepalive(end, idx);
784
785                 if (is_Bad(ka) || is_NoMem(ka) || pset_new_contains(&keeps, ka)) {
786                         changed = true;
787                         /* remove the edge */
788                         edges_notify_edge(end, idx, NULL, ka, irg);
789
790                         if (idx != n - 1) {
791                                 /* exchange with the last one */
792                                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
793                                 edges_notify_edge(end, n - 1, NULL, old, irg);
794                                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
795                                 edges_notify_edge(end, idx, old, NULL, irg);
796                         }
797                         --n;
798                 } else {
799                         pset_new_insert(&keeps, ka);
800                 }
801         }
802         /* n keeps, 1 block input */
803         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
804
805         pset_new_destroy(&keeps);
806
807         if (changed) {
808                 clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
809         }
810 }
811
812 void free_End(ir_node *end)
813 {
814         assert(is_End(end));
815         end->kind = k_BAD;
816         DEL_ARR_F(end->in);
817         end->in = NULL;   /* @@@ make sure we get an error if we use the
818                              in array afterwards ... */
819 }
820
821 size_t get_Return_n_ress(const ir_node *node)
822 {
823         assert(is_Return(node));
824         return (size_t)(get_irn_arity(node) - RETURN_RESULT_OFFSET);
825 }
826
827 ir_node **get_Return_res_arr(ir_node *node)
828 {
829         assert(is_Return(node));
830         if (get_Return_n_ress(node) > 0)
831                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
832         else
833                 return NULL;
834 }
835
836 ir_node *get_Return_res(const ir_node *node, int pos)
837 {
838         assert(is_Return(node));
839         assert(pos >= 0);
840         assert(get_Return_n_ress(node) > (size_t)pos);
841         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
842 }
843
844 void set_Return_res(ir_node *node, int pos, ir_node *res)
845 {
846         assert(is_Return(node));
847         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
848 }
849
850 int (is_Const_null)(const ir_node *node)
851 {
852         return is_Const_null_(node);
853 }
854
855 int (is_Const_one)(const ir_node *node)
856 {
857         return is_Const_one_(node);
858 }
859
860 int (is_Const_all_one)(const ir_node *node)
861 {
862         return is_Const_all_one_(node);
863 }
864
865
866
867 symconst_kind get_SymConst_kind(const ir_node *node)
868 {
869         assert(is_SymConst(node));
870         return node->attr.symc.kind;
871 }
872
873 void set_SymConst_kind(ir_node *node, symconst_kind kind)
874 {
875         assert(is_SymConst(node));
876         node->attr.symc.kind = kind;
877 }
878
879 ir_type *get_SymConst_type(const ir_node *node)
880 {
881         /* the cast here is annoying, but we have to compensate for
882            the skip_tip() */
883         ir_node *irn = (ir_node *)node;
884         assert(is_SymConst(node) &&
885                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
886         return irn->attr.symc.sym.type_p;
887 }
888
889 void set_SymConst_type(ir_node *node, ir_type *tp)
890 {
891         assert(is_SymConst(node) &&
892                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
893         node->attr.symc.sym.type_p = tp;
894 }
895
896
897 /* Only to access SymConst of kind symconst_addr_ent.  Else assertion: */
898 ir_entity *get_SymConst_entity(const ir_node *node)
899 {
900         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
901         return node->attr.symc.sym.entity_p;
902 }
903
904 void set_SymConst_entity(ir_node *node, ir_entity *ent)
905 {
906         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
907         node->attr.symc.sym.entity_p  = ent;
908 }
909
910 ir_enum_const *get_SymConst_enum(const ir_node *node)
911 {
912         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
913         return node->attr.symc.sym.enum_p;
914 }
915
916 void set_SymConst_enum(ir_node *node, ir_enum_const *ec)
917 {
918         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
919         node->attr.symc.sym.enum_p  = ec;
920 }
921
922 union symconst_symbol
923 get_SymConst_symbol(const ir_node *node)
924 {
925         assert(is_SymConst(node));
926         return node->attr.symc.sym;
927 }
928
929 void set_SymConst_symbol(ir_node *node, union symconst_symbol sym)
930 {
931         assert(is_SymConst(node));
932         node->attr.symc.sym = sym;
933 }
934
935 int get_Sel_n_indexs(const ir_node *node)
936 {
937         assert(is_Sel(node));
938         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
939 }
940
941 ir_node **get_Sel_index_arr(ir_node *node)
942 {
943         assert(is_Sel(node));
944         if (get_Sel_n_indexs(node) > 0)
945                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
946         else
947                 return NULL;
948 }
949
950 ir_node *get_Sel_index(const ir_node *node, int pos)
951 {
952         assert(is_Sel(node));
953         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
954 }
955
956 void set_Sel_index(ir_node *node, int pos, ir_node *index)
957 {
958         assert(is_Sel(node));
959         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
960 }
961
962 ir_node **get_Call_param_arr(ir_node *node)
963 {
964         assert(is_Call(node));
965         return &get_irn_in(node)[CALL_PARAM_OFFSET + 1];
966 }
967
968 size_t get_Call_n_params(const ir_node *node)
969 {
970         assert(is_Call(node));
971         return (size_t) (get_irn_arity(node) - CALL_PARAM_OFFSET);
972 }
973
974 ir_node *get_Call_param(const ir_node *node, int pos)
975 {
976         assert(is_Call(node));
977         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
978 }
979
980 void set_Call_param(ir_node *node, int pos, ir_node *param)
981 {
982         assert(is_Call(node));
983         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
984 }
985
986 ir_node **get_Builtin_param_arr(ir_node *node)
987 {
988         assert(is_Builtin(node));
989         return &get_irn_in(node)[BUILTIN_PARAM_OFFSET + 1];
990 }
991
992 int get_Builtin_n_params(const ir_node *node)
993 {
994         assert(is_Builtin(node));
995         return (get_irn_arity(node) - BUILTIN_PARAM_OFFSET);
996 }
997
998 ir_node *get_Builtin_param(const ir_node *node, int pos)
999 {
1000         assert(is_Builtin(node));
1001         return get_irn_n(node, pos + BUILTIN_PARAM_OFFSET);
1002 }
1003
1004 void set_Builtin_param(ir_node *node, int pos, ir_node *param)
1005 {
1006         assert(is_Builtin(node));
1007         set_irn_n(node, pos + BUILTIN_PARAM_OFFSET, param);
1008 }
1009
1010 /* Returns a human readable string for the ir_builtin_kind. */
1011 const char *get_builtin_kind_name(ir_builtin_kind kind)
1012 {
1013 #define X(a)    case a: return #a
1014         switch (kind) {
1015                 X(ir_bk_trap);
1016                 X(ir_bk_debugbreak);
1017                 X(ir_bk_return_address);
1018                 X(ir_bk_frame_address);
1019                 X(ir_bk_prefetch);
1020                 X(ir_bk_ffs);
1021                 X(ir_bk_clz);
1022                 X(ir_bk_ctz);
1023                 X(ir_bk_popcount);
1024                 X(ir_bk_parity);
1025                 X(ir_bk_bswap);
1026                 X(ir_bk_inport);
1027                 X(ir_bk_outport);
1028                 X(ir_bk_inner_trampoline);
1029         }
1030         return "<unknown>";
1031 #undef X
1032 }
1033
1034
1035 int Call_has_callees(const ir_node *node)
1036 {
1037         assert(is_Call(node));
1038         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
1039                 (node->attr.call.callee_arr != NULL));
1040 }
1041
1042 size_t get_Call_n_callees(const ir_node *node)
1043 {
1044   assert(is_Call(node) && node->attr.call.callee_arr);
1045   return ARR_LEN(node->attr.call.callee_arr);
1046 }
1047
1048 ir_entity *get_Call_callee(const ir_node *node, size_t pos)
1049 {
1050         assert(pos < get_Call_n_callees(node));
1051         return node->attr.call.callee_arr[pos];
1052 }
1053
1054 void set_Call_callee_arr(ir_node *node, size_t n, ir_entity ** arr)
1055 {
1056         ir_graph *irg = get_irn_irg(node);
1057
1058         assert(is_Call(node));
1059         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
1060                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, irg->obst, n);
1061         }
1062         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
1063 }
1064
1065 void remove_Call_callee_arr(ir_node *node)
1066 {
1067         assert(is_Call(node));
1068         node->attr.call.callee_arr = NULL;
1069 }
1070
1071 /* Checks for upcast.
1072  *
1073  * Returns true if the Cast node casts a class type to a super type.
1074  */
1075 int is_Cast_upcast(ir_node *node)
1076 {
1077         ir_type *totype   = get_Cast_type(node);
1078         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1079
1080         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1081         assert(fromtype);
1082
1083         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1084                 totype   = get_pointer_points_to_type(totype);
1085                 fromtype = get_pointer_points_to_type(fromtype);
1086         }
1087
1088         assert(fromtype);
1089
1090         if (!is_Class_type(totype)) return 0;
1091         return is_SubClass_of(fromtype, totype);
1092 }
1093
1094 /* Checks for downcast.
1095  *
1096  * Returns true if the Cast node casts a class type to a sub type.
1097  */
1098 int is_Cast_downcast(ir_node *node)
1099 {
1100         ir_type *totype   = get_Cast_type(node);
1101         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1102
1103         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1104         assert(fromtype);
1105
1106         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1107                 totype   = get_pointer_points_to_type(totype);
1108                 fromtype = get_pointer_points_to_type(fromtype);
1109         }
1110
1111         assert(fromtype);
1112
1113         if (!is_Class_type(totype)) return 0;
1114         return is_SubClass_of(totype, fromtype);
1115 }
1116
1117 int (is_unop)(const ir_node *node)
1118 {
1119         return is_unop_(node);
1120 }
1121
1122 ir_node *get_unop_op(const ir_node *node)
1123 {
1124         if (node->op->opar == oparity_unary)
1125                 return get_irn_n(node, node->op->op_index);
1126
1127         assert(node->op->opar == oparity_unary);
1128         return NULL;
1129 }
1130
1131 void set_unop_op(ir_node *node, ir_node *op)
1132 {
1133         if (node->op->opar == oparity_unary)
1134                 set_irn_n(node, node->op->op_index, op);
1135
1136         assert(node->op->opar == oparity_unary);
1137 }
1138
1139 int (is_binop)(const ir_node *node)
1140 {
1141         return is_binop_(node);
1142 }
1143
1144 ir_node *get_binop_left(const ir_node *node)
1145 {
1146         assert(node->op->opar == oparity_binary);
1147         return get_irn_n(node, node->op->op_index);
1148 }
1149
1150 void set_binop_left(ir_node *node, ir_node *left)
1151 {
1152         assert(node->op->opar == oparity_binary);
1153         set_irn_n(node, node->op->op_index, left);
1154 }
1155
1156 ir_node *get_binop_right(const ir_node *node)
1157 {
1158         assert(node->op->opar == oparity_binary);
1159         return get_irn_n(node, node->op->op_index + 1);
1160 }
1161
1162 void set_binop_right(ir_node *node, ir_node *right)
1163 {
1164         assert(node->op->opar == oparity_binary);
1165         set_irn_n(node, node->op->op_index + 1, right);
1166 }
1167
1168 int is_Phi0(const ir_node *n)
1169 {
1170         assert(n);
1171
1172         return ((get_irn_op(n) == op_Phi) &&
1173                 (get_irn_arity(n) == 0) &&
1174                 (get_irg_phase_state(get_irn_irg(n)) ==  phase_building));
1175 }
1176
1177 ir_node **get_Phi_preds_arr(ir_node *node)
1178 {
1179   assert(is_Phi(node));
1180   return (ir_node **)&(get_irn_in(node)[1]);
1181 }
1182
1183 int get_Phi_n_preds(const ir_node *node)
1184 {
1185         assert(is_Phi(node) || is_Phi0(node));
1186         return (get_irn_arity(node));
1187 }
1188
1189 ir_node *get_Phi_pred(const ir_node *node, int pos)
1190 {
1191         assert(is_Phi(node) || is_Phi0(node));
1192         return get_irn_n(node, pos);
1193 }
1194
1195 void set_Phi_pred(ir_node *node, int pos, ir_node *pred)
1196 {
1197         assert(is_Phi(node) || is_Phi0(node));
1198         set_irn_n(node, pos, pred);
1199 }
1200
1201 ir_node *(get_Phi_next)(const ir_node *phi)
1202 {
1203         return get_Phi_next_(phi);
1204 }
1205
1206 void (set_Phi_next)(ir_node *phi, ir_node *next)
1207 {
1208         set_Phi_next_(phi, next);
1209 }
1210
1211 int is_memop(const ir_node *node)
1212 {
1213         unsigned code = get_irn_opcode(node);
1214         return (code == iro_Load || code == iro_Store);
1215 }
1216
1217 ir_node *get_memop_mem(const ir_node *node)
1218 {
1219         assert(is_memop(node));
1220         assert(n_Load_mem == 0 && n_Store_mem == 0);
1221         return get_irn_n(node, 0);
1222 }
1223
1224 void set_memop_mem(ir_node *node, ir_node *mem)
1225 {
1226         assert(is_memop(node));
1227         assert(n_Load_mem == 0 && n_Store_mem == 0);
1228         set_irn_n(node, 0, mem);
1229 }
1230
1231 ir_node *get_memop_ptr(const ir_node *node)
1232 {
1233         assert(is_memop(node));
1234         assert(n_Load_mem == 1 && n_Store_mem == 1);
1235         return get_irn_n(node, 1);
1236 }
1237
1238 void set_memop_ptr(ir_node *node, ir_node *ptr)
1239 {
1240         assert(is_memop(node));
1241         assert(n_Load_mem == 1 && n_Store_mem == 1);
1242         set_irn_n(node, 1, ptr);
1243 }
1244
1245
1246 ir_node **get_Sync_preds_arr(ir_node *node)
1247 {
1248         assert(is_Sync(node));
1249         return (ir_node **)&(get_irn_in(node)[1]);
1250 }
1251
1252 int get_Sync_n_preds(const ir_node *node)
1253 {
1254         assert(is_Sync(node));
1255         return (get_irn_arity(node));
1256 }
1257
1258 /*
1259 void set_Sync_n_preds(ir_node *node, int n_preds)
1260 {
1261         assert(is_Sync(node));
1262 }
1263 */
1264
1265 ir_node *get_Sync_pred(const ir_node *node, int pos)
1266 {
1267         assert(is_Sync(node));
1268         return get_irn_n(node, pos);
1269 }
1270
1271 void set_Sync_pred(ir_node *node, int pos, ir_node *pred)
1272 {
1273         assert(is_Sync(node));
1274         set_irn_n(node, pos, pred);
1275 }
1276
1277 /* Add a new Sync predecessor */
1278 void add_Sync_pred(ir_node *node, ir_node *pred)
1279 {
1280         assert(is_Sync(node));
1281         add_irn_n(node, pred);
1282 }
1283
1284 int (is_arg_Proj)(const ir_node *node)
1285 {
1286         return is_arg_Proj_(node);
1287 }
1288
1289 int is_x_except_Proj(const ir_node *node)
1290 {
1291         ir_node *pred;
1292         if (!is_Proj(node))
1293                 return false;
1294         pred = get_Proj_pred(node);
1295         if (!is_fragile_op(pred))
1296                 return false;
1297         return get_Proj_proj(node) == pred->op->pn_x_except;
1298 }
1299
1300 int is_x_regular_Proj(const ir_node *node)
1301 {
1302         ir_node *pred;
1303         if (!is_Proj(node))
1304                 return false;
1305         pred = get_Proj_pred(node);
1306         if (!is_fragile_op(pred))
1307                 return false;
1308         return get_Proj_proj(node) == pred->op->pn_x_regular;
1309 }
1310
1311 void ir_set_throws_exception(ir_node *node, int throws_exception)
1312 {
1313         except_attr *attr = &node->attr.except;
1314         assert(is_fragile_op(node));
1315         attr->throws_exception = throws_exception;
1316 }
1317
1318 int ir_throws_exception(const ir_node *node)
1319 {
1320         const except_attr *attr = &node->attr.except;
1321         assert(is_fragile_op(node));
1322         return attr->throws_exception;
1323 }
1324
1325 ir_node **get_Tuple_preds_arr(ir_node *node)
1326 {
1327         assert(is_Tuple(node));
1328         return (ir_node **)&(get_irn_in(node)[1]);
1329 }
1330
1331 int get_Tuple_n_preds(const ir_node *node)
1332 {
1333         assert(is_Tuple(node));
1334         return get_irn_arity(node);
1335 }
1336
1337 ir_node *get_Tuple_pred(const ir_node *node, int pos)
1338 {
1339   assert(is_Tuple(node));
1340   return get_irn_n(node, pos);
1341 }
1342
1343 void set_Tuple_pred(ir_node *node, int pos, ir_node *pred)
1344 {
1345         assert(is_Tuple(node));
1346         set_irn_n(node, pos, pred);
1347 }
1348
1349 int get_ASM_n_input_constraints(const ir_node *node)
1350 {
1351         assert(is_ASM(node));
1352         return ARR_LEN(node->attr.assem.input_constraints);
1353 }
1354
1355 int get_ASM_n_output_constraints(const ir_node *node)
1356 {
1357         assert(is_ASM(node));
1358         return ARR_LEN(node->attr.assem.output_constraints);
1359 }
1360
1361 int get_ASM_n_clobbers(const ir_node *node)
1362 {
1363         assert(is_ASM(node));
1364         return ARR_LEN(node->attr.assem.clobbers);
1365 }
1366
1367 /* returns the graph of a node */
1368 ir_graph *(get_irn_irg)(const ir_node *node)
1369 {
1370         return get_irn_irg_(node);
1371 }
1372
1373
1374 /*----------------------------------------------------------------*/
1375 /*  Auxiliary routines                                            */
1376 /*----------------------------------------------------------------*/
1377
1378 ir_node *skip_Proj(ir_node *node)
1379 {
1380         /* don't assert node !!! */
1381         if (node == NULL)
1382                 return NULL;
1383
1384         if (is_Proj(node))
1385                 node = get_Proj_pred(node);
1386
1387         return node;
1388 }
1389
1390 const ir_node *
1391 skip_Proj_const(const ir_node *node)
1392 {
1393         /* don't assert node !!! */
1394         if (node == NULL)
1395                 return NULL;
1396
1397         if (is_Proj(node))
1398                 node = get_Proj_pred(node);
1399
1400         return node;
1401 }
1402
1403 ir_node *skip_Tuple(ir_node *node)
1404 {
1405   ir_node *pred;
1406
1407 restart:
1408         if (is_Proj(node)) {
1409             pred = get_Proj_pred(node);
1410
1411                 if (is_Proj(pred)) { /* nested Tuple ? */
1412                     pred = skip_Tuple(pred);
1413
1414                         if (is_Tuple(pred)) {
1415                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
1416                                 goto restart;
1417                         }
1418                 } else if (is_Tuple(pred)) {
1419                         node = get_Tuple_pred(pred, get_Proj_proj(node));
1420                         goto restart;
1421                 }
1422         }
1423         return node;
1424 }
1425
1426 /* returns operand of node if node is a Cast */
1427 ir_node *skip_Cast(ir_node *node)
1428 {
1429         if (is_Cast(node))
1430                 return get_Cast_op(node);
1431         return node;
1432 }
1433
1434 /* returns operand of node if node is a Cast */
1435 const ir_node *skip_Cast_const(const ir_node *node)
1436 {
1437         if (is_Cast(node))
1438                 return get_Cast_op(node);
1439         return node;
1440 }
1441
1442 /* returns operand of node if node is a Pin */
1443 ir_node *skip_Pin(ir_node *node)
1444 {
1445         if (is_Pin(node))
1446                 return get_Pin_op(node);
1447         return node;
1448 }
1449
1450 /* returns operand of node if node is a Confirm */
1451 ir_node *skip_Confirm(ir_node *node)
1452 {
1453         if (is_Confirm(node))
1454                 return get_Confirm_value(node);
1455         return node;
1456 }
1457
1458 /* skip all high-level ops */
1459 ir_node *skip_HighLevel_ops(ir_node *node)
1460 {
1461         while (is_op_highlevel(get_irn_op(node))) {
1462                 node = get_irn_n(node, 0);
1463         }
1464         return node;
1465 }
1466
1467
1468 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
1469  * than any other approach, as Id chains are resolved and all point to the real node, or
1470  * all id's are self loops.
1471  *
1472  * Note: This function takes 10% of mostly ANY the compiler run, so it's
1473  * a little bit "hand optimized".
1474  */
1475 ir_node *skip_Id(ir_node *node)
1476 {
1477         ir_node *pred;
1478         /* don't assert node !!! */
1479
1480         if (!node || (node->op != op_Id)) return node;
1481
1482         /* Don't use get_Id_pred():  We get into an endless loop for
1483            self-referencing Ids. */
1484         pred = node->in[0+1];
1485
1486         if (pred->op != op_Id) return pred;
1487
1488         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
1489                 ir_node *rem_pred, *res;
1490
1491                 if (pred->op != op_Id) return pred; /* shortcut */
1492                 rem_pred = pred;
1493
1494                 assert(get_irn_arity (node) > 0);
1495
1496                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
1497                 res = skip_Id(rem_pred);
1498                 if (is_Id(res)) /* self-loop */ return node;
1499
1500                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
1501                 return res;
1502         } else {
1503                 return node;
1504         }
1505 }
1506
1507 int (is_strictConv)(const ir_node *node)
1508 {
1509         return is_strictConv_(node);
1510 }
1511
1512 /* Returns true if node is a SymConst node with kind symconst_addr_ent. */
1513 int (is_SymConst_addr_ent)(const ir_node *node)
1514 {
1515         return is_SymConst_addr_ent_(node);
1516 }
1517
1518 /* Returns true if the operation manipulates control flow. */
1519 int is_cfop(const ir_node *node)
1520 {
1521         if (is_fragile_op(node) && ir_throws_exception(node))
1522                 return true;
1523
1524         return is_op_cfopcode(get_irn_op(node));
1525 }
1526
1527 int is_unknown_jump(const ir_node *node)
1528 {
1529         return is_op_unknown_jump(get_irn_op(node));
1530 }
1531
1532 /* Returns true if the operation can change the control flow because
1533    of an exception. */
1534 int is_fragile_op(const ir_node *node)
1535 {
1536         return is_op_fragile(get_irn_op(node));
1537 }
1538
1539 /* Returns the memory operand of fragile operations. */
1540 ir_node *get_fragile_op_mem(ir_node *node)
1541 {
1542         assert(node && is_fragile_op(node));
1543         return get_irn_n(node, node->op->fragile_mem_index);
1544 }
1545
1546 /* Returns true if the operation is a forking control flow operation. */
1547 int (is_irn_forking)(const ir_node *node)
1548 {
1549         return is_irn_forking_(node);
1550 }
1551
1552 void (copy_node_attr)(ir_graph *irg, const ir_node *old_node, ir_node *new_node)
1553 {
1554         copy_node_attr_(irg, old_node, new_node);
1555 }
1556
1557 /* Return the type attribute of a node n (SymConst, Call, Alloc, Free,
1558    Cast) or NULL.*/
1559 ir_type *(get_irn_type_attr)(ir_node *node)
1560 {
1561         return get_irn_type_attr_(node);
1562 }
1563
1564 /* Return the entity attribute of a node n (SymConst, Sel) or NULL. */
1565 ir_entity *(get_irn_entity_attr)(ir_node *node)
1566 {
1567         return get_irn_entity_attr_(node);
1568 }
1569
1570 /* Returns non-zero for constant-like nodes. */
1571 int (is_irn_constlike)(const ir_node *node)
1572 {
1573         return is_irn_constlike_(node);
1574 }
1575
1576 /*
1577  * Returns non-zero for nodes that are allowed to have keep-alives and
1578  * are neither Block nor PhiM.
1579  */
1580 int (is_irn_keep)(const ir_node *node)
1581 {
1582         return is_irn_keep_(node);
1583 }
1584
1585 /*
1586  * Returns non-zero for nodes that are always placed in the start block.
1587  */
1588 int (is_irn_start_block_placed)(const ir_node *node)
1589 {
1590         return is_irn_start_block_placed_(node);
1591 }
1592
1593 /* Returns non-zero for nodes that are machine operations. */
1594 int (is_irn_machine_op)(const ir_node *node)
1595 {
1596         return is_irn_machine_op_(node);
1597 }
1598
1599 /* Returns non-zero for nodes that are machine operands. */
1600 int (is_irn_machine_operand)(const ir_node *node)
1601 {
1602         return is_irn_machine_operand_(node);
1603 }
1604
1605 /* Returns non-zero for nodes that have the n'th user machine flag set. */
1606 int (is_irn_machine_user)(const ir_node *node, unsigned n)
1607 {
1608         return is_irn_machine_user_(node, n);
1609 }
1610
1611 /* Returns non-zero for nodes that are CSE neutral to its users. */
1612 int (is_irn_cse_neutral)(const ir_node *node)
1613 {
1614         return is_irn_cse_neutral_(node);
1615 }
1616
1617 /* Gets the string representation of the jump prediction .*/
1618 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred)
1619 {
1620 #define X(a)    case a: return #a
1621         switch (pred) {
1622                 X(COND_JMP_PRED_NONE);
1623                 X(COND_JMP_PRED_TRUE);
1624                 X(COND_JMP_PRED_FALSE);
1625         }
1626         return "<unknown>";
1627 #undef X
1628 }
1629
1630 /** Return the attribute type of a SymConst node if exists */
1631 static ir_type *get_SymConst_attr_type(const ir_node *self)
1632 {
1633         symconst_kind kind = get_SymConst_kind(self);
1634         if (SYMCONST_HAS_TYPE(kind))
1635                 return get_SymConst_type(self);
1636         return NULL;
1637 }
1638
1639 /** Return the attribute entity of a SymConst node if exists */
1640 static ir_entity *get_SymConst_attr_entity(const ir_node *self)
1641 {
1642         symconst_kind kind = get_SymConst_kind(self);
1643         if (SYMCONST_HAS_ENT(kind))
1644                 return get_SymConst_entity(self);
1645         return NULL;
1646 }
1647
1648 /** the get_type_attr operation must be always implemented */
1649 static ir_type *get_Null_type(const ir_node *n)
1650 {
1651         (void) n;
1652         return firm_unknown_type;
1653 }
1654
1655 /* Sets the get_type operation for an ir_op_ops. */
1656 ir_op_ops *firm_set_default_get_type_attr(unsigned code, ir_op_ops *ops)
1657 {
1658         switch (code) {
1659         case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
1660         case iro_Call:     ops->get_type_attr = get_Call_type; break;
1661         case iro_Alloc:    ops->get_type_attr = get_Alloc_type; break;
1662         case iro_Free:     ops->get_type_attr = get_Free_type; break;
1663         case iro_Cast:     ops->get_type_attr = get_Cast_type; break;
1664         default:
1665                 /* not allowed to be NULL */
1666                 if (! ops->get_type_attr)
1667                         ops->get_type_attr = get_Null_type;
1668                 break;
1669         }
1670         return ops;
1671 }
1672
1673 /** the get_entity_attr operation must be always implemented */
1674 static ir_entity *get_Null_ent(const ir_node *n)
1675 {
1676         (void) n;
1677         return NULL;
1678 }
1679
1680 /* Sets the get_type operation for an ir_op_ops. */
1681 ir_op_ops *firm_set_default_get_entity_attr(unsigned code, ir_op_ops *ops)
1682 {
1683         switch (code) {
1684         case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
1685         case iro_Sel:      ops->get_entity_attr = get_Sel_entity; break;
1686         default:
1687                 /* not allowed to be NULL */
1688                 if (! ops->get_entity_attr)
1689                         ops->get_entity_attr = get_Null_ent;
1690                 break;
1691         }
1692         return ops;
1693 }
1694
1695 /* Sets the debug information of a node. */
1696 void (set_irn_dbg_info)(ir_node *n, dbg_info *db)
1697 {
1698         set_irn_dbg_info_(n, db);
1699 }
1700
1701 /**
1702  * Returns the debug information of an node.
1703  *
1704  * @param n   The node.
1705  */
1706 dbg_info *(get_irn_dbg_info)(const ir_node *n)
1707 {
1708         return get_irn_dbg_info_(n);
1709 }
1710
1711 ir_switch_table *ir_new_switch_table(ir_graph *irg, size_t n_entries)
1712 {
1713         struct obstack *obst = get_irg_obstack(irg);
1714         ir_switch_table *res = OALLOCFZ(obst, ir_switch_table, entries, n_entries);
1715         res->n_entries = n_entries;
1716         return res;
1717 }
1718
1719 void ir_switch_table_set(ir_switch_table *table, size_t n,
1720                          ir_tarval *min, ir_tarval *max, long pn)
1721 {
1722         ir_switch_table_entry *entry = ir_switch_table_get_entry(table, n);
1723         entry->min = min;
1724         entry->max = max;
1725         entry->pn  = pn;
1726 }
1727
1728 size_t (ir_switch_table_get_n_entries)(const ir_switch_table *table)
1729 {
1730         return ir_switch_table_get_n_entries_(table);
1731 }
1732
1733 ir_tarval *ir_switch_table_get_max(const ir_switch_table *table, size_t e)
1734 {
1735         return ir_switch_table_get_entry_const(table, e)->max;
1736 }
1737
1738 ir_tarval *ir_switch_table_get_min(const ir_switch_table *table, size_t e)
1739 {
1740         return ir_switch_table_get_entry_const(table, e)->min;
1741 }
1742
1743 long ir_switch_table_get_pn(const ir_switch_table *table, size_t e)
1744 {
1745         return ir_switch_table_get_entry_const(table, e)->pn;
1746 }
1747
1748 ir_switch_table *ir_switch_table_duplicate(ir_graph *irg,
1749                                            const ir_switch_table *table)
1750 {
1751         size_t n_entries = ir_switch_table_get_n_entries(table);
1752         size_t e;
1753         ir_switch_table *res = ir_new_switch_table(irg, n_entries);
1754         for (e = 0; e < n_entries; ++e) {
1755                 const ir_switch_table_entry *entry
1756                         = ir_switch_table_get_entry_const(table, e);
1757                 ir_switch_table_entry *new_entry = ir_switch_table_get_entry(res, e);
1758                 *new_entry = *entry;
1759         }
1760         return res;
1761 }
1762
1763 /*
1764  * Calculate a hash value of a node.
1765  */
1766 unsigned firm_default_hash(const ir_node *node)
1767 {
1768         unsigned h;
1769         int i, irn_arity;
1770
1771         /* hash table value = 9*(9*(9*(9*(9*arity+in[0])+in[1])+ ...)+mode)+code */
1772         h = irn_arity = get_irn_arity(node);
1773
1774         /* consider all in nodes... except the block if not a control flow. */
1775         for (i = is_cfop(node) ? -1 : 0;  i < irn_arity;  ++i) {
1776                 ir_node *pred = get_irn_n(node, i);
1777                 if (is_irn_cse_neutral(pred))
1778                         h *= 9;
1779                 else
1780                         h = 9*h + HASH_PTR(pred);
1781         }
1782
1783         /* ...mode,... */
1784         h = 9*h + HASH_PTR(get_irn_mode(node));
1785         /* ...and code */
1786         h = 9*h + HASH_PTR(get_irn_op(node));
1787
1788         return h;
1789 }
1790
1791 /* include generated code */
1792 #include "gen_irnode.c.inl"