61d73947b2dd95c657912fda7471467e5950ef85
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  * @version $Id$
25  */
26 #ifdef HAVE_CONFIG_H
27 # include "config.h"
28 #endif
29
30 #ifdef HAVE_STRING_H
31 # include <string.h>
32 #endif
33
34 #include "ident.h"
35 #include "irnode_t.h"
36 #include "irgraph_t.h"
37 #include "irmode_t.h"
38 #include "irbackedge_t.h"
39 #include "irdump.h"
40 #include "irop_t.h"
41 #include "irprog_t.h"
42 #include "iredgekinds.h"
43 #include "iredges_t.h"
44 #include "ircons.h"
45
46 #include "irhooks.h"
47 #include "irtools.h"
48
49 /* some constants fixing the positions of nodes predecessors
50    in the in array */
51 #define CALL_PARAM_OFFSET     2
52 #define FUNCCALL_PARAM_OFFSET 1
53 #define SEL_INDEX_OFFSET      2
54 #define RETURN_RESULT_OFFSET  1  /* mem is not a result */
55 #define END_KEEPALIVE_OFFSET  0
56
57 static const char *pnc_name_arr [] = {
58         "pn_Cmp_False", "pn_Cmp_Eq", "pn_Cmp_Lt", "pn_Cmp_Le",
59         "pn_Cmp_Gt", "pn_Cmp_Ge", "pn_Cmp_Lg", "pn_Cmp_Leg",
60         "pn_Cmp_Uo", "pn_Cmp_Ue", "pn_Cmp_Ul", "pn_Cmp_Ule",
61         "pn_Cmp_Ug", "pn_Cmp_Uge", "pn_Cmp_Ne", "pn_Cmp_True"
62 };
63
64 /**
65  * returns the pnc name from an pnc constant
66  */
67 const char *get_pnc_string(int pnc) {
68         assert(pnc >= 0 && pnc <
69                         (int) (sizeof(pnc_name_arr)/sizeof(pnc_name_arr[0])));
70         return pnc_name_arr[pnc];
71 }
72
73 /*
74  * Calculates the negated (Complement(R)) pnc condition.
75  */
76 pn_Cmp get_negated_pnc(long pnc, ir_mode *mode) {
77         pnc ^= pn_Cmp_True;
78
79         /* do NOT add the Uo bit for non-floating point values */
80         if (! mode_is_float(mode))
81                 pnc &= ~pn_Cmp_Uo;
82
83         return (pn_Cmp) pnc;
84 }
85
86 /* Calculates the inversed (R^-1) pnc condition, i.e., "<" --> ">" */
87 pn_Cmp get_inversed_pnc(long pnc) {
88         long code    = pnc & ~(pn_Cmp_Lt|pn_Cmp_Gt);
89         long lesser  = pnc & pn_Cmp_Lt;
90         long greater = pnc & pn_Cmp_Gt;
91
92         code |= (lesser ? pn_Cmp_Gt : 0) | (greater ? pn_Cmp_Lt : 0);
93
94         return (pn_Cmp) code;
95 }
96
97 /**
98  * Indicates, whether additional data can be registered to ir nodes.
99  * If set to 1, this is not possible anymore.
100  */
101 static int forbid_new_data = 0;
102
103 /**
104  * The amount of additional space for custom data to be allocated upon
105  * creating a new node.
106  */
107 unsigned firm_add_node_size = 0;
108
109
110 /* register new space for every node */
111 unsigned firm_register_additional_node_data(unsigned size) {
112         assert(!forbid_new_data && "Too late to register additional node data");
113
114         if (forbid_new_data)
115                 return 0;
116
117         return firm_add_node_size += size;
118 }
119
120
121 void init_irnode(void) {
122         /* Forbid the addition of new data to an ir node. */
123         forbid_new_data = 1;
124 }
125
126 /*
127  * irnode constructor.
128  * Create a new irnode in irg, with an op, mode, arity and
129  * some incoming irnodes.
130  * If arity is negative, a node with a dynamic array is created.
131  */
132 ir_node *
133 new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op, ir_mode *mode,
134             int arity, ir_node **in)
135 {
136         ir_node *res;
137         size_t node_size = offsetof(ir_node, attr) + op->attr_size + firm_add_node_size;
138         char *p;
139         int i;
140
141         assert(irg);
142         assert(op);
143         assert(mode);
144         p = obstack_alloc(irg->obst, node_size);
145         memset(p, 0, node_size);
146         res = (ir_node *)(p + firm_add_node_size);
147
148         res->kind     = k_ir_node;
149         res->op       = op;
150         res->mode     = mode;
151         res->visited  = 0;
152         res->node_idx = irg_register_node_idx(irg, res);
153         res->link     = NULL;
154         res->deps     = NULL;
155
156         if (arity < 0) {
157                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
158         } else {
159                 /* not nice but necessary: End and Sync must always have a flexible array */
160                 if (op == op_End || op == op_Sync)
161                         res->in = NEW_ARR_F(ir_node *, (arity+1));
162                 else
163                         res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
164                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
165         }
166
167         res->in[0] = block;
168         set_irn_dbg_info(res, db);
169         res->out = NULL;
170
171 #ifdef DEBUG_libfirm
172         res->node_nr = get_irp_new_node_nr();
173 #endif
174
175         for (i = 0; i < EDGE_KIND_LAST; ++i)
176                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
177
178         /* don't put this into the for loop, arity is -1 for some nodes! */
179         edges_notify_edge(res, -1, res->in[0], NULL, irg);
180         for (i = 1; i <= arity; ++i)
181                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
182
183         hook_new_node(irg, res);
184
185         return res;
186 }
187
188 /*-- getting some parameters from ir_nodes --*/
189
190 int (is_ir_node)(const void *thing) {
191         return _is_ir_node(thing);
192 }
193
194 int (get_irn_intra_arity)(const ir_node *node) {
195         return _get_irn_intra_arity(node);
196 }
197
198 int (get_irn_inter_arity)(const ir_node *node) {
199         return _get_irn_inter_arity(node);
200 }
201
202 int (*_get_irn_arity)(const ir_node *node) = _get_irn_intra_arity;
203
204 int (get_irn_arity)(const ir_node *node) {
205         return _get_irn_arity(node);
206 }
207
208 /* Returns the array with ins. This array is shifted with respect to the
209    array accessed by get_irn_n: The block operand is at position 0 not -1.
210    (@@@ This should be changed.)
211    The order of the predecessors in this array is not guaranteed, except that
212    lists of operands as predecessors of Block or arguments of a Call are
213    consecutive. */
214 ir_node **get_irn_in(const ir_node *node) {
215         assert(node);
216 #ifdef INTERPROCEDURAL_VIEW
217         if (get_interprocedural_view()) { /* handle Filter and Block specially */
218                 if (get_irn_opcode(node) == iro_Filter) {
219                         assert(node->attr.filter.in_cg);
220                         return node->attr.filter.in_cg;
221                 } else if (get_irn_opcode(node) == iro_Block && node->attr.block.in_cg) {
222                         return node->attr.block.in_cg;
223                 }
224                 /* else fall through */
225         }
226 #endif /* INTERPROCEDURAL_VIEW */
227         return node->in;
228 }
229
230 void set_irn_in(ir_node *node, int arity, ir_node **in) {
231         int i;
232         ir_node *** pOld_in;
233         ir_graph *irg = current_ir_graph;
234
235         assert(node);
236 #ifdef INTERPROCEDURAL_VIEW
237         if (get_interprocedural_view()) { /* handle Filter and Block specially */
238                 ir_opcode code = get_irn_opcode(node);
239                 if (code  == iro_Filter) {
240                         assert(node->attr.filter.in_cg);
241                         pOld_in = &node->attr.filter.in_cg;
242                 } else if (code == iro_Block && node->attr.block.in_cg) {
243                         pOld_in = &node->attr.block.in_cg;
244                 } else {
245                         pOld_in = &node->in;
246                 }
247         } else
248 #endif /* INTERPROCEDURAL_VIEW */
249                 pOld_in = &node->in;
250
251
252         for (i = 0; i < arity; i++) {
253                 if (i < ARR_LEN(*pOld_in)-1)
254                         edges_notify_edge(node, i, in[i], (*pOld_in)[i+1], irg);
255                 else
256                         edges_notify_edge(node, i, in[i], NULL,            irg);
257         }
258         for (;i < ARR_LEN(*pOld_in)-1; i++) {
259                 edges_notify_edge(node, i, NULL, (*pOld_in)[i+1], irg);
260         }
261
262         if (arity != ARR_LEN(*pOld_in) - 1) {
263                 ir_node * block = (*pOld_in)[0];
264                 *pOld_in = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
265                 (*pOld_in)[0] = block;
266         }
267         fix_backedges(irg->obst, node);
268
269         memcpy((*pOld_in) + 1, in, sizeof(ir_node *) * arity);
270 }
271
272 ir_node *(get_irn_intra_n)(const ir_node *node, int n) {
273         return _get_irn_intra_n (node, n);
274 }
275
276 ir_node *(get_irn_inter_n)(const ir_node *node, int n) {
277         return _get_irn_inter_n (node, n);
278 }
279
280 ir_node *(*_get_irn_n)(const ir_node *node, int n) = _get_irn_intra_n;
281
282 ir_node *(get_irn_n)(const ir_node *node, int n) {
283         return _get_irn_n(node, n);
284 }
285
286 void set_irn_n(ir_node *node, int n, ir_node *in) {
287         assert(node && node->kind == k_ir_node);
288         assert(-1 <= n);
289         assert(n < get_irn_arity(node));
290         assert(in && in->kind == k_ir_node);
291
292         if ((n == -1) && (get_irn_opcode(node) == iro_Filter)) {
293                 /* Change block pred in both views! */
294                 node->in[n + 1] = in;
295                 assert(node->attr.filter.in_cg);
296                 node->attr.filter.in_cg[n + 1] = in;
297                 return;
298         }
299 #ifdef INTERPROCEDURAL_VIEW
300         if (get_interprocedural_view()) { /* handle Filter and Block specially */
301                 if (get_irn_opcode(node) == iro_Filter) {
302                         assert(node->attr.filter.in_cg);
303                         node->attr.filter.in_cg[n + 1] = in;
304                         return;
305                 } else if (get_irn_opcode(node) == iro_Block && node->attr.block.in_cg) {
306                         node->attr.block.in_cg[n + 1] = in;
307                         return;
308                 }
309                 /* else fall through */
310         }
311 #endif /* INTERPROCEDURAL_VIEW */
312
313         /* Call the hook */
314         hook_set_irn_n(node, n, in, node->in[n + 1]);
315
316         /* Here, we rely on src and tgt being in the current ir graph */
317         edges_notify_edge(node, n, in, node->in[n + 1], current_ir_graph);
318
319         node->in[n + 1] = in;
320 }
321
322 int add_irn_n(ir_node *node, ir_node *in) {
323         int pos;
324         ir_graph *irg = get_irn_irg(node);
325
326         assert(node->op->opar == oparity_dynamic);
327         pos = ARR_LEN(node->in) - 1;
328         ARR_APP1(ir_node *, node->in, in);
329         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
330
331         /* Call the hook */
332         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
333
334         return pos;
335 }
336
337 void del_Sync_n(ir_node *n, int i)
338 {
339         int      arity     = get_Sync_n_preds(n);
340         ir_node *last_pred = get_Sync_pred(n, arity - 1);
341         set_Sync_pred(n, i, last_pred);
342         edges_notify_edge(n, arity - 1, NULL, last_pred, get_irn_irg(n));
343         ARR_SHRINKLEN(get_irn_in(n), arity);
344 }
345
346 int (get_irn_deps)(const ir_node *node) {
347         return _get_irn_deps(node);
348 }
349
350 ir_node *(get_irn_dep)(const ir_node *node, int pos) {
351         return _get_irn_dep(node, pos);
352 }
353
354 void (set_irn_dep)(ir_node *node, int pos, ir_node *dep) {
355         _set_irn_dep(node, pos, dep);
356 }
357
358 int add_irn_dep(ir_node *node, ir_node *dep) {
359         int res = 0;
360
361         /* DEP edges are only allowed in backend phase */
362         assert(get_irg_phase_state(get_irn_irg(node)) == phase_backend);
363         if (node->deps == NULL) {
364                 node->deps = NEW_ARR_F(ir_node *, 1);
365                 node->deps[0] = dep;
366         } else {
367                 int i, n;
368                 int first_zero = -1;
369
370                 for(i = 0, n = ARR_LEN(node->deps); i < n; ++i) {
371                         if(node->deps[i] == NULL)
372                                 first_zero = i;
373
374                         if(node->deps[i] == dep)
375                                 return i;
376                 }
377
378                 if (first_zero >= 0) {
379                         node->deps[first_zero] = dep;
380                         res = first_zero;
381                 } else {
382                         ARR_APP1(ir_node *, node->deps, dep);
383                         res = n;
384                 }
385         }
386
387         edges_notify_edge_kind(node, res, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
388
389         return res;
390 }
391
392 void add_irn_deps(ir_node *tgt, ir_node *src) {
393         int i, n;
394
395         for (i = 0, n = get_irn_deps(src); i < n; ++i)
396                 add_irn_dep(tgt, get_irn_dep(src, i));
397 }
398
399
400 ir_mode *(get_irn_mode)(const ir_node *node) {
401         return _get_irn_mode(node);
402 }
403
404 void (set_irn_mode)(ir_node *node, ir_mode *mode) {
405         _set_irn_mode(node, mode);
406 }
407
408 ir_modecode get_irn_modecode(const ir_node *node) {
409         assert(node);
410         return node->mode->code;
411 }
412
413 /** Gets the string representation of the mode .*/
414 const char *get_irn_modename(const ir_node *node) {
415         assert(node);
416         return get_mode_name(node->mode);
417 }
418
419 ident *get_irn_modeident(const ir_node *node) {
420         assert(node);
421         return get_mode_ident(node->mode);
422 }
423
424 ir_op *(get_irn_op)(const ir_node *node) {
425         return _get_irn_op(node);
426 }
427
428 /* should be private to the library: */
429 void (set_irn_op)(ir_node *node, ir_op *op) {
430         _set_irn_op(node, op);
431 }
432
433 unsigned (get_irn_opcode)(const ir_node *node) {
434         return _get_irn_opcode(node);
435 }
436
437 const char *get_irn_opname(const ir_node *node) {
438         assert(node);
439         if (is_Phi0(node)) return "Phi0";
440         return get_id_str(node->op->name);
441 }
442
443 ident *get_irn_opident(const ir_node *node) {
444         assert(node);
445         return node->op->name;
446 }
447
448 ir_visited_t (get_irn_visited)(const ir_node *node) {
449         return _get_irn_visited(node);
450 }
451
452 void (set_irn_visited)(ir_node *node, ir_visited_t visited) {
453         _set_irn_visited(node, visited);
454 }
455
456 void (mark_irn_visited)(ir_node *node) {
457         _mark_irn_visited(node);
458 }
459
460 int (irn_visited)(const ir_node *node) {
461         return _irn_visited(node);
462 }
463
464 int (irn_visited_else_mark)(ir_node *node) {
465         return _irn_visited_else_mark(node);
466 }
467
468 void (set_irn_link)(ir_node *node, void *link) {
469         _set_irn_link(node, link);
470 }
471
472 void *(get_irn_link)(const ir_node *node) {
473         return _get_irn_link(node);
474 }
475
476 op_pin_state (get_irn_pinned)(const ir_node *node) {
477         return _get_irn_pinned(node);
478 }
479
480 op_pin_state (is_irn_pinned_in_irg) (const ir_node *node) {
481         return _is_irn_pinned_in_irg(node);
482 }
483
484 void set_irn_pinned(ir_node *node, op_pin_state state) {
485         /* due to optimization an opt may be turned into a Tuple */
486         if (is_Tuple(node))
487                 return;
488
489         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
490         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
491
492         node->attr.except.pin_state = state;
493 }
494
495 #ifdef DO_HEAPANALYSIS
496 /* Access the abstract interpretation information of a node.
497    Returns NULL if no such information is available. */
498 struct abstval *get_irn_abst_value(ir_node *n) {
499         return n->av;
500 }
501 /* Set the abstract interpretation information of a node. */
502 void set_irn_abst_value(ir_node *n, struct abstval *os) {
503         n->av = os;
504 }
505 struct section *firm_get_irn_section(ir_node *n) {
506         return n->sec;
507 }
508 void firm_set_irn_section(ir_node *n, struct section *s) {
509         n->sec = s;
510 }
511 #else
512 /* Dummies needed for firmjni. */
513 struct abstval *get_irn_abst_value(ir_node *n) {
514         (void) n;
515         return NULL;
516 }
517 void set_irn_abst_value(ir_node *n, struct abstval *os) {
518         (void) n;
519         (void) os;
520 }
521 struct section *firm_get_irn_section(ir_node *n) {
522         (void) n;
523         return NULL;
524 }
525 void firm_set_irn_section(ir_node *n, struct section *s) {
526         (void) n;
527         (void) s;
528 }
529 #endif /* DO_HEAPANALYSIS */
530
531
532 /* Outputs a unique number for this node */
533 long get_irn_node_nr(const ir_node *node) {
534         assert(node);
535 #ifdef DEBUG_libfirm
536         return node->node_nr;
537 #else
538         return (long)PTR_TO_INT(node);
539 #endif
540 }
541
542 const_attr *get_irn_const_attr(ir_node *node) {
543         assert(is_Const(node));
544         return &node->attr.con;
545 }
546
547 long get_irn_proj_attr(ir_node *node) {
548         /* BEWARE: check for true Proj node here, no Filter */
549         assert(node->op == op_Proj);
550         return node->attr.proj;
551 }
552
553 alloc_attr *get_irn_alloc_attr(ir_node *node) {
554         assert(is_Alloc(node));
555         return &node->attr.alloc;
556 }
557
558 free_attr *get_irn_free_attr(ir_node *node) {
559         assert(is_Free(node));
560         return &node->attr.free;
561 }
562
563 symconst_attr *get_irn_symconst_attr(ir_node *node) {
564         assert(is_SymConst(node));
565         return &node->attr.symc;
566 }
567
568 ir_type *get_irn_call_attr(ir_node *node) {
569         assert(is_Call(node));
570         return node->attr.call.cld_tp = skip_tid(node->attr.call.cld_tp);
571 }
572
573 sel_attr *get_irn_sel_attr(ir_node *node) {
574         assert(is_Sel(node));
575         return &node->attr.sel;
576 }
577
578 phi_attr *get_irn_phi_attr(ir_node *node) {
579         return &node->attr.phi;
580 }
581
582 block_attr *get_irn_block_attr(ir_node *node) {
583         assert(is_Block(node));
584         return &node->attr.block;
585 }
586
587 load_attr *get_irn_load_attr(ir_node *node) {
588         assert(is_Load(node));
589         return &node->attr.load;
590 }
591
592 store_attr *get_irn_store_attr(ir_node *node) {
593         assert(is_Store(node));
594         return &node->attr.store;
595 }
596
597 except_attr *get_irn_except_attr(ir_node *node) {
598         assert(node->op == op_Div || node->op == op_Quot ||
599                node->op == op_DivMod || node->op == op_Mod || node->op == op_Call || node->op == op_Alloc || node->op == op_Bound);
600         return &node->attr.except;
601 }
602
603 divmod_attr *get_irn_divmod_attr(ir_node *node) {
604         assert(node->op == op_Div || node->op == op_Quot ||
605                node->op == op_DivMod || node->op == op_Mod);
606         return &node->attr.divmod;
607 }
608
609 void *(get_irn_generic_attr)(ir_node *node) {
610         assert(is_ir_node(node));
611         return _get_irn_generic_attr(node);
612 }
613
614 const void *(get_irn_generic_attr_const)(const ir_node *node) {
615         assert(is_ir_node(node));
616         return _get_irn_generic_attr_const(node);
617 }
618
619 unsigned (get_irn_idx)(const ir_node *node) {
620         assert(is_ir_node(node));
621         return _get_irn_idx(node);
622 }
623
624 int get_irn_pred_pos(ir_node *node, ir_node *arg) {
625         int i;
626         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
627                 if (get_irn_n(node, i) == arg)
628                         return i;
629         }
630         return -1;
631 }
632
633 /** manipulate fields of individual nodes **/
634
635 /* this works for all except Block */
636 ir_node *get_nodes_block(const ir_node *node) {
637         assert(node->op != op_Block);
638         return get_irn_n(node, -1);
639 }
640
641 void set_nodes_block(ir_node *node, ir_node *block) {
642         assert(node->op != op_Block);
643         set_irn_n(node, -1, block);
644 }
645
646 /* this works for all except Block */
647 ir_node *get_nodes_MacroBlock(const ir_node *node) {
648         assert(node->op != op_Block);
649         return get_Block_MacroBlock(get_irn_n(node, -1));
650 }
651
652 /* Test whether arbitrary node is frame pointer, i.e. Proj(pn_Start_P_frame_base)
653  * from Start.  If so returns frame type, else Null. */
654 ir_type *is_frame_pointer(const ir_node *n) {
655         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
656                 ir_node *start = get_Proj_pred(n);
657                 if (is_Start(start)) {
658                         return get_irg_frame_type(get_irn_irg(start));
659                 }
660         }
661         return NULL;
662 }
663
664 /* Test whether arbitrary node is tls pointer, i.e. Proj(pn_Start_P_tls)
665  * from Start.  If so returns tls type, else Null. */
666 ir_type *is_tls_pointer(const ir_node *n) {
667         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_tls)) {
668                 ir_node *start = get_Proj_pred(n);
669                 if (is_Start(start)) {
670                         return get_tls_type();
671                 }
672         }
673         return NULL;
674 }
675
676 /* Test whether arbitrary node is value arg base, i.e. Proj(pn_Start_P_value_arg_base)
677  * from Start.  If so returns 1, else 0. */
678 int is_value_arg_pointer(const ir_node *n) {
679         if (is_Proj(n) &&
680                 (get_Proj_proj(n) == pn_Start_P_value_arg_base) &&
681                 is_Start(get_Proj_pred(n)))
682                 return 1;
683         return 0;
684 }
685
686 /* Returns an array with the predecessors of the Block. Depending on
687    the implementation of the graph data structure this can be a copy of
688    the internal representation of predecessors as well as the internal
689    array itself. Therefore writing to this array might obstruct the ir. */
690 ir_node **get_Block_cfgpred_arr(ir_node *node) {
691         assert(is_Block(node));
692         return (ir_node **)&(get_irn_in(node)[1]);
693 }
694
695 int (get_Block_n_cfgpreds)(const ir_node *node) {
696         return _get_Block_n_cfgpreds(node);
697 }
698
699 ir_node *(get_Block_cfgpred)(const ir_node *node, int pos) {
700         return _get_Block_cfgpred(node, pos);
701 }
702
703 void set_Block_cfgpred(ir_node *node, int pos, ir_node *pred) {
704         assert(is_Block(node));
705         set_irn_n(node, pos, pred);
706 }
707
708 ir_node *(get_Block_cfgpred_block)(const ir_node *node, int pos) {
709         return _get_Block_cfgpred_block(node, pos);
710 }
711
712 int get_Block_matured(const ir_node *node) {
713         assert(is_Block(node));
714         return (int)node->attr.block.is_matured;
715 }
716
717 void set_Block_matured(ir_node *node, int matured) {
718         assert(is_Block(node));
719         node->attr.block.is_matured = matured;
720 }
721
722 ir_visited_t (get_Block_block_visited)(const ir_node *node) {
723         return _get_Block_block_visited(node);
724 }
725
726 void (set_Block_block_visited)(ir_node *node, ir_visited_t visit) {
727         _set_Block_block_visited(node, visit);
728 }
729
730 /* For this current_ir_graph must be set. */
731 void (mark_Block_block_visited)(ir_node *node) {
732         _mark_Block_block_visited(node);
733 }
734
735 int (Block_block_visited)(const ir_node *node) {
736         return _Block_block_visited(node);
737 }
738
739 ir_node *get_Block_graph_arr(ir_node *node, int pos) {
740         assert(is_Block(node));
741         return node->attr.block.graph_arr[pos+1];
742 }
743
744 void set_Block_graph_arr(ir_node *node, int pos, ir_node *value) {
745         assert(is_Block(node));
746         node->attr.block.graph_arr[pos+1] = value;
747 }
748
749 #ifdef INTERPROCEDURAL_VIEW
750 void set_Block_cg_cfgpred_arr(ir_node *node, int arity, ir_node *in[]) {
751         assert(is_Block(node));
752         if (node->attr.block.in_cg == NULL || arity != ARR_LEN(node->attr.block.in_cg) - 1) {
753                 node->attr.block.in_cg = NEW_ARR_D(ir_node *, current_ir_graph->obst, arity + 1);
754                 node->attr.block.in_cg[0] = NULL;
755                 node->attr.block.cg_backedge = new_backedge_arr(current_ir_graph->obst, arity);
756                 {
757                         /* Fix backedge array.  fix_backedges() operates depending on
758                            interprocedural_view. */
759                         int ipv = get_interprocedural_view();
760                         set_interprocedural_view(1);
761                         fix_backedges(current_ir_graph->obst, node);
762                         set_interprocedural_view(ipv);
763                 }
764         }
765         memcpy(node->attr.block.in_cg + 1, in, sizeof(ir_node *) * arity);
766 }
767
768 void set_Block_cg_cfgpred(ir_node *node, int pos, ir_node *pred) {
769         assert(is_Block(node) && node->attr.block.in_cg &&
770                0 <= pos && pos < ARR_LEN(node->attr.block.in_cg) - 1);
771         node->attr.block.in_cg[pos + 1] = pred;
772 }
773
774 ir_node **get_Block_cg_cfgpred_arr(ir_node *node) {
775         assert(is_Block(node));
776         return node->attr.block.in_cg == NULL ? NULL : node->attr.block.in_cg  + 1;
777 }
778
779 int get_Block_cg_n_cfgpreds(const ir_node *node) {
780         assert(is_Block(node));
781         return node->attr.block.in_cg == NULL ? 0 : ARR_LEN(node->attr.block.in_cg) - 1;
782 }
783
784 ir_node *get_Block_cg_cfgpred(const ir_node *node, int pos) {
785         assert(is_Block(node) && node->attr.block.in_cg);
786         return node->attr.block.in_cg[pos + 1];
787 }
788
789 void remove_Block_cg_cfgpred_arr(ir_node *node) {
790         assert(is_Block(node));
791         node->attr.block.in_cg = NULL;
792 }
793 #endif /* INTERPROCEDURAL_VIEW */
794
795 ir_node *(set_Block_dead)(ir_node *block) {
796         return _set_Block_dead(block);
797 }
798
799 int (is_Block_dead)(const ir_node *block) {
800         return _is_Block_dead(block);
801 }
802
803 ir_extblk *get_Block_extbb(const ir_node *block) {
804         ir_extblk *res;
805         assert(is_Block(block));
806         res = block->attr.block.extblk;
807         assert(res == NULL || is_ir_extbb(res));
808         return res;
809 }
810
811 void set_Block_extbb(ir_node *block, ir_extblk *extblk) {
812         assert(is_Block(block));
813         assert(extblk == NULL || is_ir_extbb(extblk));
814         block->attr.block.extblk = extblk;
815 }
816
817 /* Returns the macro block header of a block.*/
818 ir_node *get_Block_MacroBlock(const ir_node *block) {
819         ir_node *mbh;
820         assert(is_Block(block));
821         mbh = get_irn_n(block, -1);
822         /* once macro block header is respected by all optimizations,
823            this assert can be removed */
824         assert(mbh != NULL);
825         return mbh;
826 }
827
828 /* Sets the macro block header of a block. */
829 void set_Block_MacroBlock(ir_node *block, ir_node *mbh) {
830         assert(is_Block(block));
831         assert(is_Block(mbh));
832         set_irn_n(block, -1, mbh);
833 }
834
835 /* returns the macro block header of a node. */
836 ir_node *get_irn_MacroBlock(const ir_node *n) {
837         if (! is_Block(n)) {
838                 n = get_nodes_block(n);
839                 /* if the Block is Bad, do NOT try to get it's MB, it will fail. */
840                 if (is_Bad(n))
841                         return (ir_node *)n;
842         }
843         return get_Block_MacroBlock(n);
844 }
845
846 /* returns the graph of a Block. */
847 ir_graph *get_Block_irg(const ir_node *block) {
848         assert(is_Block(block));
849         return block->attr.block.irg;
850 }
851
852 int has_Block_label(const ir_node *block) {
853         assert(is_Block(block));
854         return block->attr.block.has_label;
855 }
856
857 ir_label_t get_Block_label(const ir_node *block) {
858         assert(is_Block(block));
859         return block->attr.block.label;
860 }
861
862 void set_Block_label(ir_node *block, ir_label_t label) {
863         assert(is_Block(block));
864         block->attr.block.has_label = 1;
865         block->attr.block.label = label;
866 }
867
868 ir_node *(get_Block_phis)(const ir_node *block) {
869         return _get_Block_phis(block);
870 }
871
872 void (set_Block_phis)(ir_node *block, ir_node *phi) {
873         _set_Block_phis(block, phi);
874 }
875
876 void (add_Block_phi)(ir_node *block, ir_node *phi) {
877         _add_Block_phi(block, phi);
878 }
879
880 /* Get the Block mark (single bit). */
881 unsigned (get_Block_mark)(const ir_node *block) {
882         return _get_Block_mark(block);
883 }
884
885 /* Set the Block mark (single bit). */
886 void (set_Block_mark)(ir_node *block, unsigned mark) {
887         _set_Block_mark(block, mark);
888 }
889
890 int get_End_n_keepalives(const ir_node *end) {
891         assert(is_End(end));
892         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
893 }
894
895 ir_node *get_End_keepalive(const ir_node *end, int pos) {
896         assert(is_End(end));
897         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
898 }
899
900 void add_End_keepalive(ir_node *end, ir_node *ka) {
901         assert(is_End(end));
902         add_irn_n(end, ka);
903 }
904
905 void set_End_keepalive(ir_node *end, int pos, ir_node *ka) {
906         assert(is_End(end));
907         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
908 }
909
910 /* Set new keep-alives */
911 void set_End_keepalives(ir_node *end, int n, ir_node *in[]) {
912         int i;
913         ir_graph *irg = get_irn_irg(end);
914
915         /* notify that edges are deleted */
916         for (i = END_KEEPALIVE_OFFSET; i < ARR_LEN(end->in) - 1; ++i) {
917                 edges_notify_edge(end, i, NULL, end->in[i + 1], irg);
918         }
919         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
920
921         for (i = 0; i < n; ++i) {
922                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
923                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
924         }
925 }
926
927 /* Set new keep-alives from old keep-alives, skipping irn */
928 void remove_End_keepalive(ir_node *end, ir_node *irn) {
929         int      n = get_End_n_keepalives(end);
930         int      i, idx;
931         ir_graph *irg;
932
933         idx = -1;
934         for (i = n -1; i >= 0; --i) {
935                 ir_node *old_ka = end->in[1 + END_KEEPALIVE_OFFSET + i];
936
937                 /* find irn */
938                 if (old_ka == irn) {
939                         idx = i;
940                         goto found;
941                 }
942         }
943         return;
944 found:
945         irg = get_irn_irg(end);
946
947         /* remove the edge */
948         edges_notify_edge(end, idx, NULL, irn, irg);
949
950         if (idx != n - 1) {
951                 /* exchange with the last one */
952                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
953                 edges_notify_edge(end, n - 1, NULL, old, irg);
954                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
955                 edges_notify_edge(end, idx, old, NULL, irg);
956         }
957         ARR_RESIZE(ir_node *, end->in, (n - 1) + 1 + END_KEEPALIVE_OFFSET);
958 }
959
960 void
961 free_End(ir_node *end) {
962         assert(is_End(end));
963         end->kind = k_BAD;
964         DEL_ARR_F(end->in);
965         end->in = NULL;   /* @@@ make sure we get an error if we use the
966                              in array afterwards ... */
967 }
968
969 /* Return the target address of an IJmp */
970 ir_node *get_IJmp_target(const ir_node *ijmp) {
971         assert(is_IJmp(ijmp));
972         return get_irn_n(ijmp, 0);
973 }
974
975 /** Sets the target address of an IJmp */
976 void set_IJmp_target(ir_node *ijmp, ir_node *tgt) {
977         assert(is_IJmp(ijmp));
978         set_irn_n(ijmp, 0, tgt);
979 }
980
981 /*
982 > Implementing the case construct (which is where the constant Proj node is
983 > important) involves far more than simply determining the constant values.
984 > We could argue that this is more properly a function of the translator from
985 > Firm to the target machine.  That could be done if there was some way of
986 > projecting "default" out of the Cond node.
987 I know it's complicated.
988 Basically there are two problems:
989  - determining the gaps between the Projs
990  - determining the biggest case constant to know the proj number for
991    the default node.
992 I see several solutions:
993 1. Introduce a ProjDefault node.  Solves both problems.
994    This means to extend all optimizations executed during construction.
995 2. Give the Cond node for switch two flavors:
996    a) there are no gaps in the Projs  (existing flavor)
997    b) gaps may exist, default proj is still the Proj with the largest
998       projection number.  This covers also the gaps.
999 3. Fix the semantic of the Cond to that of 2b)
1000
1001 Solution 2 seems to be the best:
1002 Computing the gaps in the Firm representation is not too hard, i.e.,
1003 libFIRM can implement a routine that transforms between the two
1004 flavours.  This is also possible for 1) but 2) does not require to
1005 change any existing optimization.
1006 Further it should be far simpler to determine the biggest constant than
1007 to compute all gaps.
1008 I don't want to choose 3) as 2a) seems to have advantages for
1009 dataflow analysis and 3) does not allow to convert the representation to
1010 2a).
1011 */
1012 ir_node *
1013 get_Cond_selector(const ir_node *node) {
1014         assert(is_Cond(node));
1015         return get_irn_n(node, 0);
1016 }
1017
1018 void
1019 set_Cond_selector(ir_node *node, ir_node *selector) {
1020         assert(is_Cond(node));
1021         set_irn_n(node, 0, selector);
1022 }
1023
1024 cond_kind
1025 get_Cond_kind(const ir_node *node) {
1026         assert(is_Cond(node));
1027         return node->attr.cond.kind;
1028 }
1029
1030 void
1031 set_Cond_kind(ir_node *node, cond_kind kind) {
1032         assert(is_Cond(node));
1033         node->attr.cond.kind = kind;
1034 }
1035
1036 long
1037 get_Cond_defaultProj(const ir_node *node) {
1038         assert(is_Cond(node));
1039         return node->attr.cond.default_proj;
1040 }
1041
1042 ir_node *
1043 get_Return_mem(const ir_node *node) {
1044         assert(is_Return(node));
1045         return get_irn_n(node, 0);
1046 }
1047
1048 void
1049 set_Return_mem(ir_node *node, ir_node *mem) {
1050         assert(is_Return(node));
1051         set_irn_n(node, 0, mem);
1052 }
1053
1054 int
1055 get_Return_n_ress(const ir_node *node) {
1056         assert(is_Return(node));
1057         return (get_irn_arity(node) - RETURN_RESULT_OFFSET);
1058 }
1059
1060 ir_node **
1061 get_Return_res_arr(ir_node *node) {
1062         assert(is_Return(node));
1063         if (get_Return_n_ress(node) > 0)
1064                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
1065         else
1066                 return NULL;
1067 }
1068
1069 /*
1070 void
1071 set_Return_n_res(ir_node *node, int results) {
1072         assert(is_Return(node));
1073 }
1074 */
1075
1076 ir_node *
1077 get_Return_res(const ir_node *node, int pos) {
1078         assert(is_Return(node));
1079         assert(get_Return_n_ress(node) > pos);
1080         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
1081 }
1082
1083 void
1084 set_Return_res(ir_node *node, int pos, ir_node *res){
1085         assert(is_Return(node));
1086         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
1087 }
1088
1089 tarval *(get_Const_tarval)(const ir_node *node) {
1090         return _get_Const_tarval(node);
1091 }
1092
1093 void
1094 set_Const_tarval(ir_node *node, tarval *con) {
1095         assert(is_Const(node));
1096         node->attr.con.tv = con;
1097 }
1098
1099 int (is_Const_null)(const ir_node *node) {
1100         return _is_Const_null(node);
1101 }
1102
1103 int (is_Const_one)(const ir_node *node) {
1104         return _is_Const_one(node);
1105 }
1106
1107 int (is_Const_all_one)(const ir_node *node) {
1108         return _is_Const_all_one(node);
1109 }
1110
1111
1112 /* The source language type.  Must be an atomic type.  Mode of type must
1113    be mode of node. For tarvals from entities type must be pointer to
1114    entity type. */
1115 ir_type *
1116 get_Const_type(ir_node *node) {
1117         assert(is_Const(node));
1118         node->attr.con.tp = skip_tid(node->attr.con.tp);
1119         return node->attr.con.tp;
1120 }
1121
1122 void
1123 set_Const_type(ir_node *node, ir_type *tp) {
1124         assert(is_Const(node));
1125         if (tp != firm_unknown_type) {
1126                 assert(is_atomic_type(tp));
1127                 assert(get_type_mode(tp) == get_irn_mode(node));
1128         }
1129         node->attr.con.tp = tp;
1130 }
1131
1132
1133 symconst_kind
1134 get_SymConst_kind(const ir_node *node) {
1135         assert(is_SymConst(node));
1136         return node->attr.symc.kind;
1137 }
1138
1139 void
1140 set_SymConst_kind(ir_node *node, symconst_kind kind) {
1141         assert(is_SymConst(node));
1142         node->attr.symc.kind = kind;
1143 }
1144
1145 ir_type *
1146 get_SymConst_type(const ir_node *node) {
1147         /* the cast here is annoying, but we have to compensate for
1148            the skip_tip() */
1149         ir_node *irn = (ir_node *)node;
1150         assert(is_SymConst(node) &&
1151                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
1152         return irn->attr.symc.sym.type_p = skip_tid(irn->attr.symc.sym.type_p);
1153 }
1154
1155 void
1156 set_SymConst_type(ir_node *node, ir_type *tp) {
1157         assert(is_SymConst(node) &&
1158                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
1159         node->attr.symc.sym.type_p = tp;
1160 }
1161
1162 ident *
1163 get_SymConst_name(const ir_node *node) {
1164         assert(is_SymConst(node) && SYMCONST_HAS_ID(get_SymConst_kind(node)));
1165         return node->attr.symc.sym.ident_p;
1166 }
1167
1168 void
1169 set_SymConst_name(ir_node *node, ident *name) {
1170         assert(is_SymConst(node) && SYMCONST_HAS_ID(get_SymConst_kind(node)));
1171         node->attr.symc.sym.ident_p = name;
1172 }
1173
1174
1175 /* Only to access SymConst of kind symconst_addr_ent.  Else assertion: */
1176 ir_entity *get_SymConst_entity(const ir_node *node) {
1177         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
1178         return node->attr.symc.sym.entity_p;
1179 }
1180
1181 void set_SymConst_entity(ir_node *node, ir_entity *ent) {
1182         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
1183         node->attr.symc.sym.entity_p  = ent;
1184 }
1185
1186 ir_enum_const *get_SymConst_enum(const ir_node *node) {
1187         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
1188         return node->attr.symc.sym.enum_p;
1189 }
1190
1191 void set_SymConst_enum(ir_node *node, ir_enum_const *ec) {
1192         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
1193         node->attr.symc.sym.enum_p  = ec;
1194 }
1195
1196 union symconst_symbol
1197 get_SymConst_symbol(const ir_node *node) {
1198         assert(is_SymConst(node));
1199         return node->attr.symc.sym;
1200 }
1201
1202 void
1203 set_SymConst_symbol(ir_node *node, union symconst_symbol sym) {
1204         assert(is_SymConst(node));
1205         node->attr.symc.sym = sym;
1206 }
1207
1208 ir_label_t get_SymConst_label(const ir_node *node) {
1209         assert(is_SymConst(node) && SYMCONST_HAS_LABEL(get_SymConst_kind(node)));
1210         return node->attr.symc.sym.label;
1211 }
1212
1213 void set_SymConst_label(ir_node *node, ir_label_t label) {
1214         assert(is_SymConst(node) && SYMCONST_HAS_LABEL(get_SymConst_kind(node)));
1215         node->attr.symc.sym.label = label;
1216 }
1217
1218 ir_type *
1219 get_SymConst_value_type(ir_node *node) {
1220         assert(is_SymConst(node));
1221         if (node->attr.symc.tp) node->attr.symc.tp = skip_tid(node->attr.symc.tp);
1222         return node->attr.symc.tp;
1223 }
1224
1225 void
1226 set_SymConst_value_type(ir_node *node, ir_type *tp) {
1227         assert(is_SymConst(node));
1228         node->attr.symc.tp = tp;
1229 }
1230
1231 ir_node *
1232 get_Sel_mem(const ir_node *node) {
1233         assert(is_Sel(node));
1234         return get_irn_n(node, 0);
1235 }
1236
1237 void
1238 set_Sel_mem(ir_node *node, ir_node *mem) {
1239         assert(is_Sel(node));
1240         set_irn_n(node, 0, mem);
1241 }
1242
1243 ir_node *
1244 get_Sel_ptr(const ir_node *node) {
1245         assert(is_Sel(node));
1246         return get_irn_n(node, 1);
1247 }
1248
1249 void
1250 set_Sel_ptr(ir_node *node, ir_node *ptr) {
1251         assert(is_Sel(node));
1252         set_irn_n(node, 1, ptr);
1253 }
1254
1255 int
1256 get_Sel_n_indexs(const ir_node *node) {
1257         assert(is_Sel(node));
1258         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
1259 }
1260
1261 ir_node **
1262 get_Sel_index_arr(ir_node *node) {
1263         assert(is_Sel(node));
1264         if (get_Sel_n_indexs(node) > 0)
1265                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
1266         else
1267                 return NULL;
1268 }
1269
1270 ir_node *
1271 get_Sel_index(const ir_node *node, int pos) {
1272         assert(is_Sel(node));
1273         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
1274 }
1275
1276 void
1277 set_Sel_index(ir_node *node, int pos, ir_node *index) {
1278         assert(is_Sel(node));
1279         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
1280 }
1281
1282 ir_entity *
1283 get_Sel_entity(const ir_node *node) {
1284         assert(is_Sel(node));
1285         return node->attr.sel.ent;
1286 }
1287
1288 /* need a version without const to prevent warning */
1289 static ir_entity *_get_Sel_entity(ir_node *node) {
1290         return get_Sel_entity(node);
1291 }
1292
1293 void
1294 set_Sel_entity(ir_node *node, ir_entity *ent) {
1295         assert(is_Sel(node));
1296         node->attr.sel.ent = ent;
1297 }
1298
1299
1300 /* For unary and binary arithmetic operations the access to the
1301    operands can be factored out.  Left is the first, right the
1302    second arithmetic value  as listed in tech report 0999-33.
1303    unops are: Minus, Abs, Not, Conv, Cast
1304    binops are: Add, Sub, Mul, Quot, DivMod, Div, Mod, And, Or, Eor, Shl,
1305    Shr, Shrs, Rotate, Cmp */
1306
1307
1308 ir_node *
1309 get_Call_mem(const ir_node *node) {
1310         assert(is_Call(node));
1311         return get_irn_n(node, 0);
1312 }
1313
1314 void
1315 set_Call_mem(ir_node *node, ir_node *mem) {
1316         assert(is_Call(node));
1317         set_irn_n(node, 0, mem);
1318 }
1319
1320 ir_node *
1321 get_Call_ptr(const ir_node *node) {
1322         assert(is_Call(node));
1323         return get_irn_n(node, 1);
1324 }
1325
1326 void
1327 set_Call_ptr(ir_node *node, ir_node *ptr) {
1328         assert(is_Call(node));
1329         set_irn_n(node, 1, ptr);
1330 }
1331
1332 ir_node **
1333 get_Call_param_arr(ir_node *node) {
1334         assert(is_Call(node));
1335         return &get_irn_in(node)[CALL_PARAM_OFFSET + 1];
1336 }
1337
1338 int
1339 get_Call_n_params(const ir_node *node)  {
1340         assert(is_Call(node));
1341         return (get_irn_arity(node) - CALL_PARAM_OFFSET);
1342 }
1343
1344 int
1345 get_Call_arity(const ir_node *node) {
1346         assert(is_Call(node));
1347         return get_Call_n_params(node);
1348 }
1349
1350 /* void
1351 set_Call_arity(ir_node *node, ir_node *arity) {
1352         assert(is_Call(node));
1353 }
1354 */
1355
1356 ir_node *
1357 get_Call_param(const ir_node *node, int pos) {
1358         assert(is_Call(node));
1359         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
1360 }
1361
1362 void
1363 set_Call_param(ir_node *node, int pos, ir_node *param) {
1364         assert(is_Call(node));
1365         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
1366 }
1367
1368 ir_type *
1369 get_Call_type(ir_node *node) {
1370         assert(is_Call(node));
1371         return node->attr.call.cld_tp = skip_tid(node->attr.call.cld_tp);
1372 }
1373
1374 void
1375 set_Call_type(ir_node *node, ir_type *tp) {
1376         assert(is_Call(node));
1377         assert((get_unknown_type() == tp) || is_Method_type(tp));
1378         node->attr.call.cld_tp = tp;
1379 }
1380
1381 int Call_has_callees(const ir_node *node) {
1382         assert(is_Call(node));
1383         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
1384                 (node->attr.call.callee_arr != NULL));
1385 }
1386
1387 int get_Call_n_callees(const ir_node *node) {
1388   assert(is_Call(node) && node->attr.call.callee_arr);
1389   return ARR_LEN(node->attr.call.callee_arr);
1390 }
1391
1392 ir_entity *get_Call_callee(const ir_node *node, int pos) {
1393         assert(pos >= 0 && pos < get_Call_n_callees(node));
1394         return node->attr.call.callee_arr[pos];
1395 }
1396
1397 void set_Call_callee_arr(ir_node *node, const int n, ir_entity ** arr) {
1398         assert(is_Call(node));
1399         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
1400                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, current_ir_graph->obst, n);
1401         }
1402         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
1403 }
1404
1405 void remove_Call_callee_arr(ir_node *node) {
1406         assert(is_Call(node));
1407         node->attr.call.callee_arr = NULL;
1408 }
1409
1410 ir_node *get_CallBegin_ptr(const ir_node *node) {
1411         assert(is_CallBegin(node));
1412         return get_irn_n(node, 0);
1413 }
1414
1415 void set_CallBegin_ptr(ir_node *node, ir_node *ptr) {
1416         assert(is_CallBegin(node));
1417         set_irn_n(node, 0, ptr);
1418 }
1419
1420 ir_node *get_CallBegin_call(const ir_node *node) {
1421         assert(is_CallBegin(node));
1422         return node->attr.callbegin.call;
1423 }
1424
1425 void set_CallBegin_call(ir_node *node, ir_node *call) {
1426         assert(is_CallBegin(node));
1427         node->attr.callbegin.call = call;
1428 }
1429
1430 /*
1431  * Returns non-zero if a Call is surely a self-recursive Call.
1432  * Beware: if this functions returns 0, the call might be self-recursive!
1433  */
1434 int is_self_recursive_Call(const ir_node *call) {
1435         const ir_node *callee = get_Call_ptr(call);
1436
1437         if (is_SymConst_addr_ent(callee)) {
1438                 const ir_entity *ent = get_SymConst_entity(callee);
1439                 const ir_graph  *irg = get_entity_irg(ent);
1440                 if (irg == get_irn_irg(call))
1441                         return 1;
1442         }
1443         return 0;
1444 }
1445
1446 #define BINOP(OP)                                      \
1447 ir_node * get_##OP##_left(const ir_node *node) {       \
1448   assert(is_##OP(node));                               \
1449   return get_irn_n(node, node->op->op_index);          \
1450 }                                                      \
1451 void set_##OP##_left(ir_node *node, ir_node *left) {   \
1452   assert(is_##OP(node));                               \
1453   set_irn_n(node, node->op->op_index, left);           \
1454 }                                                      \
1455 ir_node *get_##OP##_right(const ir_node *node) {       \
1456   assert(is_##OP(node));                               \
1457   return get_irn_n(node, node->op->op_index + 1);      \
1458 }                                                      \
1459 void set_##OP##_right(ir_node *node, ir_node *right) { \
1460   assert(is_##OP(node));                               \
1461   set_irn_n(node, node->op->op_index + 1, right);      \
1462 }
1463
1464 #define UNOP(OP)                                  \
1465 ir_node *get_##OP##_op(const ir_node *node) {     \
1466   assert(is_##OP(node));                          \
1467   return get_irn_n(node, node->op->op_index);     \
1468 }                                                 \
1469 void set_##OP##_op(ir_node *node, ir_node *op) {  \
1470   assert(is_##OP(node));                          \
1471   set_irn_n(node, node->op->op_index, op);        \
1472 }
1473
1474 #define BINOP_MEM(OP)                         \
1475 BINOP(OP)                                     \
1476                                               \
1477 ir_node *                                     \
1478 get_##OP##_mem(const ir_node *node) {         \
1479   assert(is_##OP(node));                      \
1480   return get_irn_n(node, 0);                  \
1481 }                                             \
1482                                               \
1483 void                                          \
1484 set_##OP##_mem(ir_node *node, ir_node *mem) { \
1485   assert(is_##OP(node));                      \
1486   set_irn_n(node, 0, mem);                    \
1487 }
1488
1489 #define DIVOP(OP)                                       \
1490 BINOP_MEM(OP)                                           \
1491                                                         \
1492 ir_mode *get_##OP##_resmode(const ir_node *node) {      \
1493   assert(is_##OP(node));                                \
1494   return node->attr.divmod.res_mode;                    \
1495 }                                                       \
1496                                                         \
1497 void set_##OP##_resmode(ir_node *node, ir_mode *mode) { \
1498   assert(is_##OP(node));                                \
1499   node->attr.divmod.res_mode = mode;                    \
1500 }
1501
1502
1503 BINOP(Add)
1504 BINOP(Carry)
1505 BINOP(Sub)
1506 UNOP(Minus)
1507 BINOP(Mul)
1508 BINOP(Mulh)
1509 DIVOP(Quot)
1510 DIVOP(DivMod)
1511 DIVOP(Div)
1512 DIVOP(Mod)
1513 UNOP(Abs)
1514 BINOP(And)
1515 BINOP(Or)
1516 BINOP(Eor)
1517 UNOP(Not)
1518 BINOP(Shl)
1519 BINOP(Shr)
1520 BINOP(Shrs)
1521 BINOP(Rotl)
1522 BINOP(Cmp)
1523 UNOP(Conv)
1524 UNOP(Cast)
1525
1526 int is_Div_remainderless(const ir_node *node) {
1527         assert(is_Div(node));
1528         return node->attr.divmod.no_remainder;
1529 }
1530
1531 int get_Conv_strict(const ir_node *node) {
1532         assert(is_Conv(node));
1533         return node->attr.conv.strict;
1534 }
1535
1536 void set_Conv_strict(ir_node *node, int strict_flag) {
1537         assert(is_Conv(node));
1538         node->attr.conv.strict = (char)strict_flag;
1539 }
1540
1541 ir_type *
1542 get_Cast_type(ir_node *node) {
1543         assert(is_Cast(node));
1544         node->attr.cast.totype = skip_tid(node->attr.cast.totype);
1545         return node->attr.cast.totype;
1546 }
1547
1548 void
1549 set_Cast_type(ir_node *node, ir_type *to_tp) {
1550         assert(is_Cast(node));
1551         node->attr.cast.totype = to_tp;
1552 }
1553
1554
1555 /* Checks for upcast.
1556  *
1557  * Returns true if the Cast node casts a class type to a super type.
1558  */
1559 int is_Cast_upcast(ir_node *node) {
1560         ir_type *totype   = get_Cast_type(node);
1561         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1562
1563         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1564         assert(fromtype);
1565
1566         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1567                 totype   = get_pointer_points_to_type(totype);
1568                 fromtype = get_pointer_points_to_type(fromtype);
1569         }
1570
1571         assert(fromtype);
1572
1573         if (!is_Class_type(totype)) return 0;
1574         return is_SubClass_of(fromtype, totype);
1575 }
1576
1577 /* Checks for downcast.
1578  *
1579  * Returns true if the Cast node casts a class type to a sub type.
1580  */
1581 int is_Cast_downcast(ir_node *node) {
1582         ir_type *totype   = get_Cast_type(node);
1583         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1584
1585         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1586         assert(fromtype);
1587
1588         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1589                 totype   = get_pointer_points_to_type(totype);
1590                 fromtype = get_pointer_points_to_type(fromtype);
1591         }
1592
1593         assert(fromtype);
1594
1595         if (!is_Class_type(totype)) return 0;
1596         return is_SubClass_of(totype, fromtype);
1597 }
1598
1599 int
1600 (is_unop)(const ir_node *node) {
1601         return _is_unop(node);
1602 }
1603
1604 ir_node *
1605 get_unop_op(const ir_node *node) {
1606         if (node->op->opar == oparity_unary)
1607                 return get_irn_n(node, node->op->op_index);
1608
1609         assert(node->op->opar == oparity_unary);
1610         return NULL;
1611 }
1612
1613 void
1614 set_unop_op(ir_node *node, ir_node *op) {
1615         if (node->op->opar == oparity_unary)
1616                 set_irn_n(node, node->op->op_index, op);
1617
1618         assert(node->op->opar == oparity_unary);
1619 }
1620
1621 int
1622 (is_binop)(const ir_node *node) {
1623         return _is_binop(node);
1624 }
1625
1626 ir_node *
1627 get_binop_left(const ir_node *node) {
1628         assert(node->op->opar == oparity_binary);
1629         return get_irn_n(node, node->op->op_index);
1630 }
1631
1632 void
1633 set_binop_left(ir_node *node, ir_node *left) {
1634         assert(node->op->opar == oparity_binary);
1635         set_irn_n(node, node->op->op_index, left);
1636 }
1637
1638 ir_node *
1639 get_binop_right(const ir_node *node) {
1640         assert(node->op->opar == oparity_binary);
1641         return get_irn_n(node, node->op->op_index + 1);
1642 }
1643
1644 void
1645 set_binop_right(ir_node *node, ir_node *right) {
1646         assert(node->op->opar == oparity_binary);
1647         set_irn_n(node, node->op->op_index + 1, right);
1648 }
1649
1650 int
1651 (is_Phi)(const ir_node *n) {
1652         return _is_Phi(n);
1653 }
1654
1655 int is_Phi0(const ir_node *n) {
1656         assert(n);
1657
1658         return ((get_irn_op(n) == op_Phi) &&
1659                 (get_irn_arity(n) == 0) &&
1660                 (get_irg_phase_state(get_irn_irg(n)) ==  phase_building));
1661 }
1662
1663 ir_node **
1664 get_Phi_preds_arr(ir_node *node) {
1665   assert(node->op == op_Phi);
1666   return (ir_node **)&(get_irn_in(node)[1]);
1667 }
1668
1669 int
1670 get_Phi_n_preds(const ir_node *node) {
1671         assert(is_Phi(node) || is_Phi0(node));
1672         return (get_irn_arity(node));
1673 }
1674
1675 /*
1676 void set_Phi_n_preds(ir_node *node, int n_preds) {
1677         assert(node->op == op_Phi);
1678 }
1679 */
1680
1681 ir_node *
1682 get_Phi_pred(const ir_node *node, int pos) {
1683         assert(is_Phi(node) || is_Phi0(node));
1684         return get_irn_n(node, pos);
1685 }
1686
1687 void
1688 set_Phi_pred(ir_node *node, int pos, ir_node *pred) {
1689         assert(is_Phi(node) || is_Phi0(node));
1690         set_irn_n(node, pos, pred);
1691 }
1692
1693 ir_node *(get_Phi_next)(const ir_node *phi) {
1694         return _get_Phi_next(phi);
1695 }
1696
1697 void (set_Phi_next)(ir_node *phi, ir_node *next) {
1698         _set_Phi_next(phi, next);
1699 }
1700
1701 int is_memop(const ir_node *node) {
1702         ir_opcode code = get_irn_opcode(node);
1703         return (code == iro_Load || code == iro_Store);
1704 }
1705
1706 ir_node *get_memop_mem(const ir_node *node) {
1707         assert(is_memop(node));
1708         return get_irn_n(node, 0);
1709 }
1710
1711 void set_memop_mem(ir_node *node, ir_node *mem) {
1712         assert(is_memop(node));
1713         set_irn_n(node, 0, mem);
1714 }
1715
1716 ir_node *get_memop_ptr(const ir_node *node) {
1717         assert(is_memop(node));
1718         return get_irn_n(node, 1);
1719 }
1720
1721 void set_memop_ptr(ir_node *node, ir_node *ptr) {
1722         assert(is_memop(node));
1723         set_irn_n(node, 1, ptr);
1724 }
1725
1726 ir_node *
1727 get_Load_mem(const ir_node *node) {
1728         assert(is_Load(node));
1729         return get_irn_n(node, 0);
1730 }
1731
1732 void
1733 set_Load_mem(ir_node *node, ir_node *mem) {
1734         assert(is_Load(node));
1735         set_irn_n(node, 0, mem);
1736 }
1737
1738 ir_node *
1739 get_Load_ptr(const ir_node *node) {
1740         assert(is_Load(node));
1741         return get_irn_n(node, 1);
1742 }
1743
1744 void
1745 set_Load_ptr(ir_node *node, ir_node *ptr) {
1746         assert(is_Load(node));
1747         set_irn_n(node, 1, ptr);
1748 }
1749
1750 ir_mode *
1751 get_Load_mode(const ir_node *node) {
1752         assert(is_Load(node));
1753         return node->attr.load.load_mode;
1754 }
1755
1756 void
1757 set_Load_mode(ir_node *node, ir_mode *mode) {
1758         assert(is_Load(node));
1759         node->attr.load.load_mode = mode;
1760 }
1761
1762 ir_volatility
1763 get_Load_volatility(const ir_node *node) {
1764         assert(is_Load(node));
1765         return node->attr.load.volatility;
1766 }
1767
1768 void
1769 set_Load_volatility(ir_node *node, ir_volatility volatility) {
1770         assert(is_Load(node));
1771         node->attr.load.volatility = volatility;
1772 }
1773
1774 ir_align
1775 get_Load_align(const ir_node *node) {
1776         assert(is_Load(node));
1777         return node->attr.load.aligned;
1778 }
1779
1780 void
1781 set_Load_align(ir_node *node, ir_align align) {
1782         assert(is_Load(node));
1783         node->attr.load.aligned = align;
1784 }
1785
1786
1787 ir_node *
1788 get_Store_mem(const ir_node *node) {
1789         assert(is_Store(node));
1790         return get_irn_n(node, 0);
1791 }
1792
1793 void
1794 set_Store_mem(ir_node *node, ir_node *mem) {
1795         assert(is_Store(node));
1796         set_irn_n(node, 0, mem);
1797 }
1798
1799 ir_node *
1800 get_Store_ptr(const ir_node *node) {
1801         assert(is_Store(node));
1802         return get_irn_n(node, 1);
1803 }
1804
1805 void
1806 set_Store_ptr(ir_node *node, ir_node *ptr) {
1807         assert(is_Store(node));
1808         set_irn_n(node, 1, ptr);
1809 }
1810
1811 ir_node *
1812 get_Store_value(const ir_node *node) {
1813         assert(is_Store(node));
1814         return get_irn_n(node, 2);
1815 }
1816
1817 void
1818 set_Store_value(ir_node *node, ir_node *value) {
1819         assert(is_Store(node));
1820         set_irn_n(node, 2, value);
1821 }
1822
1823 ir_volatility
1824 get_Store_volatility(const ir_node *node) {
1825         assert(is_Store(node));
1826         return node->attr.store.volatility;
1827 }
1828
1829 void
1830 set_Store_volatility(ir_node *node, ir_volatility volatility) {
1831         assert(is_Store(node));
1832         node->attr.store.volatility = volatility;
1833 }
1834
1835 ir_align
1836 get_Store_align(const ir_node *node) {
1837         assert(is_Store(node));
1838         return node->attr.store.aligned;
1839 }
1840
1841 void
1842 set_Store_align(ir_node *node, ir_align align) {
1843         assert(is_Store(node));
1844         node->attr.store.aligned = align;
1845 }
1846
1847
1848 ir_node *
1849 get_Alloc_mem(const ir_node *node) {
1850         assert(is_Alloc(node));
1851         return get_irn_n(node, 0);
1852 }
1853
1854 void
1855 set_Alloc_mem(ir_node *node, ir_node *mem) {
1856         assert(is_Alloc(node));
1857         set_irn_n(node, 0, mem);
1858 }
1859
1860 ir_node *
1861 get_Alloc_size(const ir_node *node) {
1862         assert(is_Alloc(node));
1863         return get_irn_n(node, 1);
1864 }
1865
1866 void
1867 set_Alloc_size(ir_node *node, ir_node *size) {
1868         assert(is_Alloc(node));
1869         set_irn_n(node, 1, size);
1870 }
1871
1872 ir_type *
1873 get_Alloc_type(ir_node *node) {
1874         assert(is_Alloc(node));
1875         return node->attr.alloc.type = skip_tid(node->attr.alloc.type);
1876 }
1877
1878 void
1879 set_Alloc_type(ir_node *node, ir_type *tp) {
1880         assert(is_Alloc(node));
1881         node->attr.alloc.type = tp;
1882 }
1883
1884 ir_where_alloc
1885 get_Alloc_where(const ir_node *node) {
1886         assert(is_Alloc(node));
1887         return node->attr.alloc.where;
1888 }
1889
1890 void
1891 set_Alloc_where(ir_node *node, ir_where_alloc where) {
1892         assert(is_Alloc(node));
1893         node->attr.alloc.where = where;
1894 }
1895
1896
1897 ir_node *
1898 get_Free_mem(const ir_node *node) {
1899         assert(is_Free(node));
1900         return get_irn_n(node, 0);
1901 }
1902
1903 void
1904 set_Free_mem(ir_node *node, ir_node *mem) {
1905         assert(is_Free(node));
1906         set_irn_n(node, 0, mem);
1907 }
1908
1909 ir_node *
1910 get_Free_ptr(const ir_node *node) {
1911         assert(is_Free(node));
1912         return get_irn_n(node, 1);
1913 }
1914
1915 void
1916 set_Free_ptr(ir_node *node, ir_node *ptr) {
1917         assert(is_Free(node));
1918         set_irn_n(node, 1, ptr);
1919 }
1920
1921 ir_node *
1922 get_Free_size(const ir_node *node) {
1923         assert(is_Free(node));
1924         return get_irn_n(node, 2);
1925 }
1926
1927 void
1928 set_Free_size(ir_node *node, ir_node *size) {
1929         assert(is_Free(node));
1930         set_irn_n(node, 2, size);
1931 }
1932
1933 ir_type *
1934 get_Free_type(ir_node *node) {
1935         assert(is_Free(node));
1936         return node->attr.free.type = skip_tid(node->attr.free.type);
1937 }
1938
1939 void
1940 set_Free_type(ir_node *node, ir_type *tp) {
1941         assert(is_Free(node));
1942         node->attr.free.type = tp;
1943 }
1944
1945 ir_where_alloc
1946 get_Free_where(const ir_node *node) {
1947         assert(is_Free(node));
1948         return node->attr.free.where;
1949 }
1950
1951 void
1952 set_Free_where(ir_node *node, ir_where_alloc where) {
1953         assert(is_Free(node));
1954         node->attr.free.where = where;
1955 }
1956
1957 ir_node **get_Sync_preds_arr(ir_node *node) {
1958         assert(is_Sync(node));
1959         return (ir_node **)&(get_irn_in(node)[1]);
1960 }
1961
1962 int get_Sync_n_preds(const ir_node *node) {
1963         assert(is_Sync(node));
1964         return (get_irn_arity(node));
1965 }
1966
1967 /*
1968 void set_Sync_n_preds(ir_node *node, int n_preds) {
1969         assert(is_Sync(node));
1970 }
1971 */
1972
1973 ir_node *get_Sync_pred(const ir_node *node, int pos) {
1974         assert(is_Sync(node));
1975         return get_irn_n(node, pos);
1976 }
1977
1978 void set_Sync_pred(ir_node *node, int pos, ir_node *pred) {
1979         assert(is_Sync(node));
1980         set_irn_n(node, pos, pred);
1981 }
1982
1983 /* Add a new Sync predecessor */
1984 void add_Sync_pred(ir_node *node, ir_node *pred) {
1985         assert(is_Sync(node));
1986         add_irn_n(node, pred);
1987 }
1988
1989 /* Returns the source language type of a Proj node. */
1990 ir_type *get_Proj_type(ir_node *n) {
1991         ir_type *tp   = firm_unknown_type;
1992         ir_node *pred = get_Proj_pred(n);
1993
1994         switch (get_irn_opcode(pred)) {
1995         case iro_Proj: {
1996                 ir_node *pred_pred;
1997                 /* Deal with Start / Call here: we need to know the Proj Nr. */
1998                 assert(get_irn_mode(pred) == mode_T);
1999                 pred_pred = get_Proj_pred(pred);
2000
2001                 if (is_Start(pred_pred))  {
2002                         ir_type *mtp = get_entity_type(get_irg_entity(get_irn_irg(pred_pred)));
2003                         tp = get_method_param_type(mtp, get_Proj_proj(n));
2004                 } else if (is_Call(pred_pred)) {
2005                         ir_type *mtp = get_Call_type(pred_pred);
2006                         tp = get_method_res_type(mtp, get_Proj_proj(n));
2007                 }
2008         } break;
2009         case iro_Start: break;
2010         case iro_Call: break;
2011         case iro_Load: {
2012                 ir_node *a = get_Load_ptr(pred);
2013                 if (is_Sel(a))
2014                         tp = get_entity_type(get_Sel_entity(a));
2015         } break;
2016         default:
2017                 break;
2018         }
2019         return tp;
2020 }
2021
2022 ir_node *
2023 get_Proj_pred(const ir_node *node) {
2024         assert(is_Proj(node));
2025         return get_irn_n(node, 0);
2026 }
2027
2028 void
2029 set_Proj_pred(ir_node *node, ir_node *pred) {
2030         assert(is_Proj(node));
2031         set_irn_n(node, 0, pred);
2032 }
2033
2034 long
2035 get_Proj_proj(const ir_node *node) {
2036 #ifdef INTERPROCEDURAL_VIEW
2037         ir_opcode code = get_irn_opcode(node);
2038
2039         if (code == iro_Proj) {
2040                 return node->attr.proj;
2041         }
2042         else {
2043                 assert(code == iro_Filter);
2044                 return node->attr.filter.proj;
2045         }
2046 #else
2047         assert(is_Proj(node));
2048         return node->attr.proj;
2049 #endif /* INTERPROCEDURAL_VIEW */
2050 }
2051
2052 void
2053 set_Proj_proj(ir_node *node, long proj) {
2054 #ifdef INTERPROCEDURAL_VIEW
2055         ir_opcode code = get_irn_opcode(node);
2056
2057         if (code == iro_Proj) {
2058                 node->attr.proj = proj;
2059         }
2060         else {
2061                 assert(code == iro_Filter);
2062                 node->attr.filter.proj = proj;
2063         }
2064 #else
2065         assert(is_Proj(node));
2066         node->attr.proj = proj;
2067 #endif /* INTERPROCEDURAL_VIEW */
2068 }
2069
2070 /* Returns non-zero if a node is a routine parameter. */
2071 int (is_arg_Proj)(const ir_node *node) {
2072         return _is_arg_Proj(node);
2073 }
2074
2075 ir_node **
2076 get_Tuple_preds_arr(ir_node *node) {
2077         assert(is_Tuple(node));
2078         return (ir_node **)&(get_irn_in(node)[1]);
2079 }
2080
2081 int
2082 get_Tuple_n_preds(const ir_node *node) {
2083         assert(is_Tuple(node));
2084         return get_irn_arity(node);
2085 }
2086
2087 /*
2088 void
2089 set_Tuple_n_preds(ir_node *node, int n_preds) {
2090         assert(is_Tuple(node));
2091 }
2092 */
2093
2094 ir_node *
2095 get_Tuple_pred(const ir_node *node, int pos) {
2096   assert(is_Tuple(node));
2097   return get_irn_n(node, pos);
2098 }
2099
2100 void
2101 set_Tuple_pred(ir_node *node, int pos, ir_node *pred) {
2102         assert(is_Tuple(node));
2103         set_irn_n(node, pos, pred);
2104 }
2105
2106 ir_node *
2107 get_Id_pred(const ir_node *node) {
2108         assert(is_Id(node));
2109         return get_irn_n(node, 0);
2110 }
2111
2112 void
2113 set_Id_pred(ir_node *node, ir_node *pred) {
2114         assert(is_Id(node));
2115         set_irn_n(node, 0, pred);
2116 }
2117
2118 ir_node *get_Confirm_value(const ir_node *node) {
2119         assert(is_Confirm(node));
2120         return get_irn_n(node, 0);
2121 }
2122
2123 void set_Confirm_value(ir_node *node, ir_node *value) {
2124         assert(is_Confirm(node));
2125         set_irn_n(node, 0, value);
2126 }
2127
2128 ir_node *get_Confirm_bound(const ir_node *node) {
2129         assert(is_Confirm(node));
2130         return get_irn_n(node, 1);
2131 }
2132
2133 void set_Confirm_bound(ir_node *node, ir_node *bound) {
2134         assert(is_Confirm(node));
2135         set_irn_n(node, 0, bound);
2136 }
2137
2138 pn_Cmp get_Confirm_cmp(const ir_node *node) {
2139         assert(is_Confirm(node));
2140         return node->attr.confirm.cmp;
2141 }
2142
2143 void set_Confirm_cmp(ir_node *node, pn_Cmp cmp) {
2144         assert(is_Confirm(node));
2145         node->attr.confirm.cmp = cmp;
2146 }
2147
2148 ir_node *
2149 get_Filter_pred(ir_node *node) {
2150         assert(is_Filter(node));
2151         return node->in[1];
2152 }
2153
2154 void
2155 set_Filter_pred(ir_node *node, ir_node *pred) {
2156         assert(is_Filter(node));
2157         node->in[1] = pred;
2158 }
2159
2160 long
2161 get_Filter_proj(ir_node *node) {
2162         assert(is_Filter(node));
2163         return node->attr.filter.proj;
2164 }
2165
2166 void
2167 set_Filter_proj(ir_node *node, long proj) {
2168         assert(is_Filter(node));
2169         node->attr.filter.proj = proj;
2170 }
2171
2172 /* Don't use get_irn_arity, get_irn_n in implementation as access
2173    shall work independent of view!!! */
2174 void set_Filter_cg_pred_arr(ir_node *node, int arity, ir_node ** in) {
2175         assert(is_Filter(node));
2176         if (node->attr.filter.in_cg == NULL || arity != ARR_LEN(node->attr.filter.in_cg) - 1) {
2177                 ir_graph *irg = get_irn_irg(node);
2178                 node->attr.filter.in_cg = NEW_ARR_D(ir_node *, current_ir_graph->obst, arity + 1);
2179                 node->attr.filter.backedge = new_backedge_arr(irg->obst, arity);
2180                 node->attr.filter.in_cg[0] = node->in[0];
2181         }
2182         memcpy(node->attr.filter.in_cg + 1, in, sizeof(ir_node *) * arity);
2183 }
2184
2185 void set_Filter_cg_pred(ir_node * node, int pos, ir_node * pred) {
2186         assert(is_Filter(node) && node->attr.filter.in_cg &&
2187                0 <= pos && pos < ARR_LEN(node->attr.filter.in_cg) - 1);
2188         node->attr.filter.in_cg[pos + 1] = pred;
2189 }
2190
2191 int get_Filter_n_cg_preds(ir_node *node) {
2192         assert(is_Filter(node) && node->attr.filter.in_cg);
2193         return (ARR_LEN(node->attr.filter.in_cg) - 1);
2194 }
2195
2196 ir_node *get_Filter_cg_pred(ir_node *node, int pos) {
2197         int arity;
2198         assert(is_Filter(node) && node->attr.filter.in_cg &&
2199                0 <= pos);
2200         arity = ARR_LEN(node->attr.filter.in_cg);
2201         assert(pos < arity - 1);
2202         return node->attr.filter.in_cg[pos + 1];
2203 }
2204
2205 /* Mux support */
2206 ir_node *get_Mux_sel(const ir_node *node) {
2207         assert(is_Mux(node));
2208         return node->in[1];
2209 }
2210
2211 void set_Mux_sel(ir_node *node, ir_node *sel) {
2212         assert(is_Mux(node));
2213         node->in[1] = sel;
2214 }
2215
2216 ir_node *get_Mux_false(const ir_node *node) {
2217         assert(is_Mux(node));
2218         return node->in[2];
2219 }
2220
2221 void set_Mux_false(ir_node *node, ir_node *ir_false) {
2222         assert(is_Mux(node));
2223         node->in[2] = ir_false;
2224 }
2225
2226 ir_node *get_Mux_true(const ir_node *node) {
2227         assert(is_Mux(node));
2228         return node->in[3];
2229 }
2230
2231 void set_Mux_true(ir_node *node, ir_node *ir_true) {
2232         assert(is_Mux(node));
2233         node->in[3] = ir_true;
2234 }
2235
2236 /* CopyB support */
2237 ir_node *get_CopyB_mem(const ir_node *node) {
2238         assert(is_CopyB(node));
2239         return get_irn_n(node, 0);
2240 }
2241
2242 void set_CopyB_mem(ir_node *node, ir_node *mem) {
2243         assert(node->op == op_CopyB);
2244         set_irn_n(node, 0, mem);
2245 }
2246
2247 ir_node *get_CopyB_dst(const ir_node *node) {
2248         assert(is_CopyB(node));
2249         return get_irn_n(node, 1);
2250 }
2251
2252 void set_CopyB_dst(ir_node *node, ir_node *dst) {
2253         assert(is_CopyB(node));
2254         set_irn_n(node, 1, dst);
2255 }
2256
2257 ir_node *get_CopyB_src(const ir_node *node) {
2258   assert(is_CopyB(node));
2259   return get_irn_n(node, 2);
2260 }
2261
2262 void set_CopyB_src(ir_node *node, ir_node *src) {
2263         assert(is_CopyB(node));
2264         set_irn_n(node, 2, src);
2265 }
2266
2267 ir_type *get_CopyB_type(ir_node *node) {
2268         assert(is_CopyB(node));
2269         return node->attr.copyb.data_type = skip_tid(node->attr.copyb.data_type);
2270 }
2271
2272 void set_CopyB_type(ir_node *node, ir_type *data_type) {
2273         assert(is_CopyB(node) && data_type);
2274         node->attr.copyb.data_type = data_type;
2275 }
2276
2277
2278 ir_type *
2279 get_InstOf_type(ir_node *node) {
2280         assert(node->op == op_InstOf);
2281         return node->attr.instof.type = skip_tid(node->attr.instof.type);
2282 }
2283
2284 void
2285 set_InstOf_type(ir_node *node, ir_type *type) {
2286         assert(node->op == op_InstOf);
2287         node->attr.instof.type = type;
2288 }
2289
2290 ir_node *
2291 get_InstOf_store(const ir_node *node) {
2292         assert(node->op == op_InstOf);
2293         return get_irn_n(node, 0);
2294 }
2295
2296 void
2297 set_InstOf_store(ir_node *node, ir_node *obj) {
2298         assert(node->op == op_InstOf);
2299         set_irn_n(node, 0, obj);
2300 }
2301
2302 ir_node *
2303 get_InstOf_obj(const ir_node *node) {
2304         assert(node->op == op_InstOf);
2305         return get_irn_n(node, 1);
2306 }
2307
2308 void
2309 set_InstOf_obj(ir_node *node, ir_node *obj) {
2310         assert(node->op == op_InstOf);
2311         set_irn_n(node, 1, obj);
2312 }
2313
2314 /* Returns the memory input of a Raise operation. */
2315 ir_node *
2316 get_Raise_mem(const ir_node *node) {
2317         assert(is_Raise(node));
2318         return get_irn_n(node, 0);
2319 }
2320
2321 void
2322 set_Raise_mem(ir_node *node, ir_node *mem) {
2323         assert(is_Raise(node));
2324         set_irn_n(node, 0, mem);
2325 }
2326
2327 ir_node *
2328 get_Raise_exo_ptr(const ir_node *node) {
2329         assert(is_Raise(node));
2330         return get_irn_n(node, 1);
2331 }
2332
2333 void
2334 set_Raise_exo_ptr(ir_node *node, ir_node *exo_ptr) {
2335         assert(is_Raise(node));
2336         set_irn_n(node, 1, exo_ptr);
2337 }
2338
2339 /* Bound support */
2340
2341 /* Returns the memory input of a Bound operation. */
2342 ir_node *get_Bound_mem(const ir_node *bound) {
2343         assert(is_Bound(bound));
2344         return get_irn_n(bound, 0);
2345 }
2346
2347 void set_Bound_mem(ir_node *bound, ir_node *mem) {
2348         assert(is_Bound(bound));
2349         set_irn_n(bound, 0, mem);
2350 }
2351
2352 /* Returns the index input of a Bound operation. */
2353 ir_node *get_Bound_index(const ir_node *bound) {
2354         assert(is_Bound(bound));
2355         return get_irn_n(bound, 1);
2356 }
2357
2358 void set_Bound_index(ir_node *bound, ir_node *idx) {
2359         assert(is_Bound(bound));
2360         set_irn_n(bound, 1, idx);
2361 }
2362
2363 /* Returns the lower bound input of a Bound operation. */
2364 ir_node *get_Bound_lower(const ir_node *bound) {
2365         assert(is_Bound(bound));
2366         return get_irn_n(bound, 2);
2367 }
2368
2369 void set_Bound_lower(ir_node *bound, ir_node *lower) {
2370         assert(is_Bound(bound));
2371         set_irn_n(bound, 2, lower);
2372 }
2373
2374 /* Returns the upper bound input of a Bound operation. */
2375 ir_node *get_Bound_upper(const ir_node *bound) {
2376         assert(is_Bound(bound));
2377         return get_irn_n(bound, 3);
2378 }
2379
2380 void set_Bound_upper(ir_node *bound, ir_node *upper) {
2381         assert(is_Bound(bound));
2382         set_irn_n(bound, 3, upper);
2383 }
2384
2385 /* Return the operand of a Pin node. */
2386 ir_node *get_Pin_op(const ir_node *pin) {
2387         assert(is_Pin(pin));
2388         return get_irn_n(pin, 0);
2389 }
2390
2391 void set_Pin_op(ir_node *pin, ir_node *node) {
2392         assert(is_Pin(pin));
2393         set_irn_n(pin, 0, node);
2394 }
2395
2396 /* Return the assembler text of an ASM pseudo node. */
2397 ident *get_ASM_text(const ir_node *node) {
2398         assert(is_ASM(node));
2399         return node->attr.assem.asm_text;
2400 }
2401
2402 /* Return the number of input constraints for an ASM node. */
2403 int get_ASM_n_input_constraints(const ir_node *node) {
2404         assert(is_ASM(node));
2405         return ARR_LEN(node->attr.assem.inputs);
2406 }
2407
2408 /* Return the input constraints for an ASM node. This is a flexible array. */
2409 const ir_asm_constraint *get_ASM_input_constraints(const ir_node *node) {
2410         assert(is_ASM(node));
2411         return node->attr.assem.inputs;
2412 }
2413
2414 /* Return the number of output constraints for an ASM node.  */
2415 int get_ASM_n_output_constraints(const ir_node *node) {
2416         assert(is_ASM(node));
2417         return ARR_LEN(node->attr.assem.outputs);
2418 }
2419
2420 /* Return the output constraints for an ASM node. */
2421 const ir_asm_constraint *get_ASM_output_constraints(const ir_node *node) {
2422         assert(is_ASM(node));
2423         return node->attr.assem.outputs;
2424 }
2425
2426 /* Return the number of clobbered registers for an ASM node.  */
2427 int get_ASM_n_clobbers(const ir_node *node) {
2428         assert(is_ASM(node));
2429         return ARR_LEN(node->attr.assem.clobber);
2430 }
2431
2432 /* Return the list of clobbered registers for an ASM node. */
2433 ident **get_ASM_clobbers(const ir_node *node) {
2434         assert(is_ASM(node));
2435         return node->attr.assem.clobber;
2436 }
2437
2438 /* returns the graph of a node */
2439 ir_graph *
2440 get_irn_irg(const ir_node *node) {
2441         /*
2442          * Do not use get_nodes_Block() here, because this
2443          * will check the pinned state.
2444          * However even a 'wrong' block is always in the proper
2445          * irg.
2446          */
2447         if (! is_Block(node))
2448                 node = get_irn_n(node, -1);
2449         if (is_Bad(node))  /* sometimes bad is predecessor of nodes instead of block: in case of optimization */
2450                 node = get_irn_n(node, -1);
2451         assert(is_Block(node));
2452         return node->attr.block.irg;
2453 }
2454
2455
2456 /*----------------------------------------------------------------*/
2457 /*  Auxiliary routines                                            */
2458 /*----------------------------------------------------------------*/
2459
2460 ir_node *
2461 skip_Proj(ir_node *node) {
2462         /* don't assert node !!! */
2463         if (node == NULL)
2464                 return NULL;
2465
2466         if (is_Proj(node))
2467                 node = get_Proj_pred(node);
2468
2469         return node;
2470 }
2471
2472 const ir_node *
2473 skip_Proj_const(const ir_node *node) {
2474         /* don't assert node !!! */
2475         if (node == NULL)
2476                 return NULL;
2477
2478         if (is_Proj(node))
2479                 node = get_Proj_pred(node);
2480
2481         return node;
2482 }
2483
2484 ir_node *
2485 skip_Tuple(ir_node *node) {
2486   ir_node *pred;
2487   ir_op   *op;
2488
2489   if (!get_opt_normalize()) return node;
2490
2491 restart:
2492         if (get_irn_op(node) == op_Proj) {
2493             pred = get_Proj_pred(node);
2494             op   = get_irn_op(pred);
2495
2496                 /*
2497                  * Looks strange but calls get_irn_op() only once
2498                  * in most often cases.
2499                  */
2500                 if (op == op_Proj) { /* nested Tuple ? */
2501                     pred = skip_Tuple(pred);
2502                     op   = get_irn_op(pred);
2503
2504                         if (op == op_Tuple) {
2505                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
2506                                 goto restart;
2507                         }
2508                 } else if (op == op_Tuple) {
2509                         node = get_Tuple_pred(pred, get_Proj_proj(node));
2510                         goto restart;
2511                 }
2512         }
2513         return node;
2514 }
2515
2516 /* returns operand of node if node is a Cast */
2517 ir_node *skip_Cast(ir_node *node) {
2518         if (is_Cast(node))
2519                 return get_Cast_op(node);
2520         return node;
2521 }
2522
2523 /* returns operand of node if node is a Cast */
2524 const ir_node *skip_Cast_const(const ir_node *node) {
2525         if (is_Cast(node))
2526                 return get_Cast_op(node);
2527         return node;
2528 }
2529
2530 /* returns operand of node if node is a Pin */
2531 ir_node *skip_Pin(ir_node *node) {
2532         if (is_Pin(node))
2533                 return get_Pin_op(node);
2534         return node;
2535 }
2536
2537 /* returns operand of node if node is a Confirm */
2538 ir_node *skip_Confirm(ir_node *node) {
2539         if (is_Confirm(node))
2540                 return get_Confirm_value(node);
2541         return node;
2542 }
2543
2544 /* skip all high-level ops */
2545 ir_node *skip_HighLevel_ops(ir_node *node) {
2546         while (is_op_highlevel(get_irn_op(node))) {
2547                 node = get_irn_n(node, 0);
2548         }
2549         return node;
2550 }
2551
2552
2553 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
2554  * than any other approach, as Id chains are resolved and all point to the real node, or
2555  * all id's are self loops.
2556  *
2557  * Note: This function takes 10% of mostly ANY the compiler run, so it's
2558  * a little bit "hand optimized".
2559  *
2560  * Moreover, it CANNOT be switched off using get_opt_normalize() ...
2561  */
2562 ir_node *
2563 skip_Id(ir_node *node) {
2564         ir_node *pred;
2565         /* don't assert node !!! */
2566
2567         if (!node || (node->op != op_Id)) return node;
2568
2569         /* Don't use get_Id_pred():  We get into an endless loop for
2570            self-referencing Ids. */
2571         pred = node->in[0+1];
2572
2573         if (pred->op != op_Id) return pred;
2574
2575         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
2576                 ir_node *rem_pred, *res;
2577
2578                 if (pred->op != op_Id) return pred; /* shortcut */
2579                 rem_pred = pred;
2580
2581                 assert(get_irn_arity (node) > 0);
2582
2583                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
2584                 res = skip_Id(rem_pred);
2585                 if (res->op == op_Id) /* self-loop */ return node;
2586
2587                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
2588                 return res;
2589         } else {
2590                 return node;
2591         }
2592 }
2593
2594 void skip_Id_and_store(ir_node **node) {
2595         ir_node *n = *node;
2596
2597         if (!n || (n->op != op_Id)) return;
2598
2599         /* Don't use get_Id_pred():  We get into an endless loop for
2600            self-referencing Ids. */
2601         *node = skip_Id(n);
2602 }
2603
2604 int
2605 (is_Bad)(const ir_node *node) {
2606         return _is_Bad(node);
2607 }
2608
2609 int
2610 (is_NoMem)(const ir_node *node) {
2611         return _is_NoMem(node);
2612 }
2613
2614 int
2615 (is_Minus)(const ir_node *node) {
2616         return _is_Minus(node);
2617 }
2618
2619 int
2620 (is_Abs)(const ir_node *node) {
2621         return _is_Abs(node);
2622 }
2623
2624 int
2625 (is_Mod)(const ir_node *node) {
2626         return _is_Mod(node);
2627 }
2628
2629 int
2630 (is_Div)(const ir_node *node) {
2631         return _is_Div(node);
2632 }
2633
2634 int
2635 (is_DivMod)(const ir_node *node) {
2636         return _is_DivMod(node);
2637 }
2638
2639 int
2640 (is_Quot)(const ir_node *node) {
2641         return _is_Quot(node);
2642 }
2643
2644 int
2645 (is_Add)(const ir_node *node) {
2646         return _is_Add(node);
2647 }
2648
2649 int
2650 (is_Carry)(const ir_node *node) {
2651         return _is_Carry(node);
2652 }
2653
2654 int
2655 (is_And)(const ir_node *node) {
2656         return _is_And(node);
2657 }
2658
2659 int
2660 (is_Or)(const ir_node *node) {
2661         return _is_Or(node);
2662 }
2663
2664 int
2665 (is_Eor)(const ir_node *node) {
2666         return _is_Eor(node);
2667 }
2668
2669 int
2670 (is_Sub)(const ir_node *node) {
2671         return _is_Sub(node);
2672 }
2673
2674 int
2675 (is_Shl)(const ir_node *node) {
2676         return _is_Shl(node);
2677 }
2678
2679 int
2680 (is_Shr)(const ir_node *node) {
2681         return _is_Shr(node);
2682 }
2683
2684 int
2685 (is_Shrs)(const ir_node *node) {
2686         return _is_Shrs(node);
2687 }
2688
2689 int
2690 (is_Rotl)(const ir_node *node) {
2691         return _is_Rotl(node);
2692 }
2693
2694 int
2695 (is_Not)(const ir_node *node) {
2696         return _is_Not(node);
2697 }
2698
2699 int
2700 (is_Id)(const ir_node *node) {
2701         return _is_Id(node);
2702 }
2703
2704 int
2705 (is_Tuple)(const ir_node *node) {
2706         return _is_Tuple(node);
2707 }
2708
2709 int
2710 (is_Bound)(const ir_node *node) {
2711         return _is_Bound(node);
2712 }
2713
2714 int
2715 (is_Start)(const ir_node *node) {
2716   return _is_Start(node);
2717 }
2718
2719 int
2720 (is_End)(const ir_node *node) {
2721         return _is_End(node);
2722 }
2723
2724 int
2725 (is_Const)(const ir_node *node) {
2726         return _is_Const(node);
2727 }
2728
2729 int
2730 (is_Conv)(const ir_node *node) {
2731         return _is_Conv(node);
2732 }
2733
2734 int
2735 (is_strictConv)(const ir_node *node) {
2736         return _is_strictConv(node);
2737 }
2738
2739 int
2740 (is_Cast)(const ir_node *node) {
2741         return _is_Cast(node);
2742 }
2743
2744 int
2745 (is_no_Block)(const ir_node *node) {
2746         return _is_no_Block(node);
2747 }
2748
2749 int
2750 (is_Block)(const ir_node *node) {
2751         return _is_Block(node);
2752 }
2753
2754 /* returns true if node is an Unknown node. */
2755 int
2756 (is_Unknown)(const ir_node *node) {
2757         return _is_Unknown(node);
2758 }
2759
2760 /* returns true if node is a Return node. */
2761 int
2762 (is_Return)(const ir_node *node) {
2763         return _is_Return(node);
2764 }
2765
2766 /* returns true if node is a Call node. */
2767 int
2768 (is_Call)(const ir_node *node) {
2769         return _is_Call(node);
2770 }
2771
2772 /* returns true if node is a CallBegin node. */
2773 int
2774 (is_CallBegin)(const ir_node *node) {
2775         return _is_CallBegin(node);
2776 }
2777
2778 /* returns true if node is a Sel node. */
2779 int
2780 (is_Sel)(const ir_node *node) {
2781         return _is_Sel(node);
2782 }
2783
2784 /* returns true if node is a Mux node. */
2785 int
2786 (is_Mux)(const ir_node *node) {
2787         return _is_Mux(node);
2788 }
2789
2790 /* returns true if node is a Load node. */
2791 int
2792 (is_Load)(const ir_node *node) {
2793         return _is_Load(node);
2794 }
2795
2796 /* returns true if node is a Load node. */
2797 int
2798 (is_Store)(const ir_node *node) {
2799         return _is_Store(node);
2800 }
2801
2802 /* returns true if node is a Sync node. */
2803 int
2804 (is_Sync)(const ir_node *node) {
2805         return _is_Sync(node);
2806 }
2807
2808 /* Returns true if node is a Confirm node. */
2809 int
2810 (is_Confirm)(const ir_node *node) {
2811         return _is_Confirm(node);
2812 }
2813
2814 /* Returns true if node is a Pin node. */
2815 int
2816 (is_Pin)(const ir_node *node) {
2817         return _is_Pin(node);
2818 }
2819
2820 /* Returns true if node is a SymConst node. */
2821 int
2822 (is_SymConst)(const ir_node *node) {
2823         return _is_SymConst(node);
2824 }
2825
2826 /* Returns true if node is a SymConst node with kind symconst_addr_ent. */
2827 int
2828 (is_SymConst_addr_ent)(const ir_node *node) {
2829         return _is_SymConst_addr_ent(node);
2830 }
2831
2832 /* Returns true if node is a Cond node. */
2833 int
2834 (is_Cond)(const ir_node *node) {
2835         return _is_Cond(node);
2836 }
2837
2838 int
2839 (is_CopyB)(const ir_node *node) {
2840         return _is_CopyB(node);
2841 }
2842
2843 /* returns true if node is a Cmp node. */
2844 int
2845 (is_Cmp)(const ir_node *node) {
2846         return _is_Cmp(node);
2847 }
2848
2849 /* returns true if node is an Alloc node. */
2850 int
2851 (is_Alloc)(const ir_node *node) {
2852         return _is_Alloc(node);
2853 }
2854
2855 /* returns true if node is a Free node. */
2856 int
2857 (is_Free)(const ir_node *node) {
2858         return _is_Free(node);
2859 }
2860
2861 /* returns true if a node is a Jmp node. */
2862 int
2863 (is_Jmp)(const ir_node *node) {
2864         return _is_Jmp(node);
2865 }
2866
2867 /* returns true if a node is a IJmp node. */
2868 int
2869 (is_IJmp)(const ir_node *node) {
2870         return _is_IJmp(node);
2871 }
2872
2873 /* returns true if a node is a Raise node. */
2874 int
2875 (is_Raise)(const ir_node *node) {
2876         return _is_Raise(node);
2877 }
2878
2879 /* returns true if a node is an ASM node. */
2880 int
2881 (is_ASM)(const ir_node *node) {
2882         return _is_ASM(node);
2883 }
2884
2885 int
2886 (is_Proj)(const ir_node *node) {
2887         return _is_Proj(node);
2888 }
2889
2890 /* Returns true if node is a Filter node. */
2891 int
2892 (is_Filter)(const ir_node *node) {
2893         return _is_Filter(node);
2894 }
2895
2896 /* Returns true if the operation manipulates control flow. */
2897 int is_cfop(const ir_node *node) {
2898         return is_op_cfopcode(get_irn_op(node));
2899 }
2900
2901 /* Returns true if the operation manipulates interprocedural control flow:
2902    CallBegin, EndReg, EndExcept */
2903 int is_ip_cfop(const ir_node *node) {
2904         return is_ip_cfopcode(get_irn_op(node));
2905 }
2906
2907 /* Returns true if the operation can change the control flow because
2908    of an exception. */
2909 int
2910 is_fragile_op(const ir_node *node) {
2911         return is_op_fragile(get_irn_op(node));
2912 }
2913
2914 /* Returns the memory operand of fragile operations. */
2915 ir_node *get_fragile_op_mem(ir_node *node) {
2916         assert(node && is_fragile_op(node));
2917
2918         switch (get_irn_opcode(node)) {
2919         case iro_Call  :
2920         case iro_Quot  :
2921         case iro_DivMod:
2922         case iro_Div   :
2923         case iro_Mod   :
2924         case iro_Load  :
2925         case iro_Store :
2926         case iro_Alloc :
2927         case iro_Bound :
2928         case iro_CopyB :
2929                 return get_irn_n(node, pn_Generic_M_regular);
2930         case iro_Bad   :
2931         case iro_Unknown:
2932                 return node;
2933         default: ;
2934                 assert(0 && "should not be reached");
2935                 return NULL;
2936         }
2937 }
2938
2939 /* Returns the result mode of a Div operation. */
2940 ir_mode *get_divop_resmod(const ir_node *node) {
2941         switch (get_irn_opcode(node)) {
2942         case iro_Quot  : return get_Quot_resmode(node);
2943         case iro_DivMod: return get_DivMod_resmode(node);
2944         case iro_Div   : return get_Div_resmode(node);
2945         case iro_Mod   : return get_Mod_resmode(node);
2946         default: ;
2947                 assert(0 && "should not be reached");
2948                 return NULL;
2949         }
2950 }
2951
2952 /* Returns true if the operation is a forking control flow operation. */
2953 int (is_irn_forking)(const ir_node *node) {
2954         return _is_irn_forking(node);
2955 }
2956
2957 /* Return the type associated with the value produced by n
2958  * if the node remarks this type as it is the case for
2959  * Cast, Const, SymConst and some Proj nodes. */
2960 ir_type *(get_irn_type)(ir_node *node) {
2961         return _get_irn_type(node);
2962 }
2963
2964 /* Return the type attribute of a node n (SymConst, Call, Alloc, Free,
2965    Cast) or NULL.*/
2966 ir_type *(get_irn_type_attr)(ir_node *node) {
2967         return _get_irn_type_attr(node);
2968 }
2969
2970 /* Return the entity attribute of a node n (SymConst, Sel) or NULL. */
2971 ir_entity *(get_irn_entity_attr)(ir_node *node) {
2972         return _get_irn_entity_attr(node);
2973 }
2974
2975 /* Returns non-zero for constant-like nodes. */
2976 int (is_irn_constlike)(const ir_node *node) {
2977         return _is_irn_constlike(node);
2978 }
2979
2980 /*
2981  * Returns non-zero for nodes that are allowed to have keep-alives and
2982  * are neither Block nor PhiM.
2983  */
2984 int (is_irn_keep)(const ir_node *node) {
2985         return _is_irn_keep(node);
2986 }
2987
2988 /*
2989  * Returns non-zero for nodes that are always placed in the start block.
2990  */
2991 int (is_irn_start_block_placed)(const ir_node *node) {
2992         return _is_irn_start_block_placed(node);
2993 }
2994
2995 /* Returns non-zero for nodes that are machine operations. */
2996 int (is_irn_machine_op)(const ir_node *node) {
2997         return _is_irn_machine_op(node);
2998 }
2999
3000 /* Returns non-zero for nodes that are machine operands. */
3001 int (is_irn_machine_operand)(const ir_node *node) {
3002         return _is_irn_machine_operand(node);
3003 }
3004
3005 /* Returns non-zero for nodes that have the n'th user machine flag set. */
3006 int (is_irn_machine_user)(const ir_node *node, unsigned n) {
3007         return _is_irn_machine_user(node, n);
3008 }
3009
3010
3011 /* Gets the string representation of the jump prediction .*/
3012 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred) {
3013         switch (pred) {
3014         default:
3015         case COND_JMP_PRED_NONE:  return "no prediction";
3016         case COND_JMP_PRED_TRUE:  return "true taken";
3017         case COND_JMP_PRED_FALSE: return "false taken";
3018         }
3019 }
3020
3021 /* Returns the conditional jump prediction of a Cond node. */
3022 cond_jmp_predicate (get_Cond_jmp_pred)(const ir_node *cond) {
3023         return _get_Cond_jmp_pred(cond);
3024 }
3025
3026 /* Sets a new conditional jump prediction. */
3027 void (set_Cond_jmp_pred)(ir_node *cond, cond_jmp_predicate pred) {
3028         _set_Cond_jmp_pred(cond, pred);
3029 }
3030
3031 /** the get_type operation must be always implemented and return a firm type */
3032 static ir_type *get_Default_type(ir_node *n) {
3033         (void) n;
3034         return get_unknown_type();
3035 }
3036
3037 /* Sets the get_type operation for an ir_op_ops. */
3038 ir_op_ops *firm_set_default_get_type(ir_opcode code, ir_op_ops *ops) {
3039         switch (code) {
3040         case iro_Const:    ops->get_type = get_Const_type; break;
3041         case iro_SymConst: ops->get_type = get_SymConst_value_type; break;
3042         case iro_Cast:     ops->get_type = get_Cast_type; break;
3043         case iro_Proj:     ops->get_type = get_Proj_type; break;
3044         default:
3045                 /* not allowed to be NULL */
3046                 if (! ops->get_type)
3047                         ops->get_type = get_Default_type;
3048                 break;
3049         }
3050         return ops;
3051 }
3052
3053 /** Return the attribute type of a SymConst node if exists */
3054 static ir_type *get_SymConst_attr_type(ir_node *self) {
3055         symconst_kind kind = get_SymConst_kind(self);
3056         if (SYMCONST_HAS_TYPE(kind))
3057                 return get_SymConst_type(self);
3058         return NULL;
3059 }
3060
3061 /** Return the attribute entity of a SymConst node if exists */
3062 static ir_entity *get_SymConst_attr_entity(ir_node *self) {
3063         symconst_kind kind = get_SymConst_kind(self);
3064         if (SYMCONST_HAS_ENT(kind))
3065                 return get_SymConst_entity(self);
3066         return NULL;
3067 }
3068
3069 /** the get_type_attr operation must be always implemented */
3070 static ir_type *get_Null_type(ir_node *n) {
3071         (void) n;
3072         return firm_unknown_type;
3073 }
3074
3075 /* Sets the get_type operation for an ir_op_ops. */
3076 ir_op_ops *firm_set_default_get_type_attr(ir_opcode code, ir_op_ops *ops) {
3077         switch (code) {
3078         case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
3079         case iro_Call:     ops->get_type_attr = get_Call_type; break;
3080         case iro_Alloc:    ops->get_type_attr = get_Alloc_type; break;
3081         case iro_Free:     ops->get_type_attr = get_Free_type; break;
3082         case iro_Cast:     ops->get_type_attr = get_Cast_type; break;
3083         default:
3084                 /* not allowed to be NULL */
3085                 if (! ops->get_type_attr)
3086                         ops->get_type_attr = get_Null_type;
3087                 break;
3088         }
3089         return ops;
3090 }
3091
3092 /** the get_entity_attr operation must be always implemented */
3093 static ir_entity *get_Null_ent(ir_node *n) {
3094         (void) n;
3095         return NULL;
3096 }
3097
3098 /* Sets the get_type operation for an ir_op_ops. */
3099 ir_op_ops *firm_set_default_get_entity_attr(ir_opcode code, ir_op_ops *ops) {
3100         switch (code) {
3101         case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
3102         case iro_Sel:      ops->get_entity_attr = _get_Sel_entity; break;
3103         default:
3104                 /* not allowed to be NULL */
3105                 if (! ops->get_entity_attr)
3106                         ops->get_entity_attr = get_Null_ent;
3107                 break;
3108         }
3109         return ops;
3110 }
3111
3112 /* Sets the debug information of a node. */
3113 void (set_irn_dbg_info)(ir_node *n, dbg_info *db) {
3114         _set_irn_dbg_info(n, db);
3115 }
3116
3117 /**
3118  * Returns the debug information of an node.
3119  *
3120  * @param n   The node.
3121  */
3122 dbg_info *(get_irn_dbg_info)(const ir_node *n) {
3123         return _get_irn_dbg_info(n);
3124 }
3125
3126 #if 0 /* allow the global pointer */
3127
3128 /* checks whether a node represents a global address */
3129 int is_Global(const ir_node *node) {
3130         ir_node *ptr;
3131
3132         if (is_SymConst_addr_ent(node))
3133                 return 1;
3134         if (! is_Sel(node))
3135                 return 0;
3136
3137         ptr = get_Sel_ptr(node);
3138         return is_globals_pointer(ptr) != NULL;
3139 }
3140
3141 /* returns the entity of a global address */
3142 ir_entity *get_Global_entity(const ir_node *node) {
3143         if (is_SymConst(node))
3144                 return get_SymConst_entity(node);
3145         else
3146                 return get_Sel_entity(node);
3147 }
3148 #else
3149
3150 /* checks whether a node represents a global address */
3151 int is_Global(const ir_node *node) {
3152         return is_SymConst_addr_ent(node);
3153 }
3154
3155 /* returns the entity of a global address */
3156 ir_entity *get_Global_entity(const ir_node *node) {
3157         return get_SymConst_entity(node);
3158 }
3159 #endif
3160
3161 /*
3162  * Calculate a hash value of a node.
3163  */
3164 unsigned firm_default_hash(const ir_node *node) {
3165         unsigned h;
3166         int i, irn_arity;
3167
3168         /* hash table value = 9*(9*(9*(9*(9*arity+in[0])+in[1])+ ...)+mode)+code */
3169         h = irn_arity = get_irn_intra_arity(node);
3170
3171         /* consider all in nodes... except the block if not a control flow. */
3172         for (i = is_cfop(node) ? -1 : 0;  i < irn_arity;  ++i) {
3173                 h = 9*h + HASH_PTR(get_irn_intra_n(node, i));
3174         }
3175
3176         /* ...mode,... */
3177         h = 9*h + HASH_PTR(get_irn_mode(node));
3178         /* ...and code */
3179         h = 9*h + HASH_PTR(get_irn_op(node));
3180
3181         return h;
3182 }  /* firm_default_hash */