- generate more stuff from ir_spec.py
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  * @version $Id$
25  */
26 #include "config.h"
27
28 #include <string.h>
29
30 #include "pset_new.h"
31 #include "ident.h"
32 #include "irnode_t.h"
33 #include "irgraph_t.h"
34 #include "irmode_t.h"
35 #include "irbackedge_t.h"
36 #include "irdump.h"
37 #include "irop_t.h"
38 #include "irprog_t.h"
39 #include "iredgekinds.h"
40 #include "iredges_t.h"
41 #include "ircons.h"
42
43 #include "irhooks.h"
44 #include "irtools.h"
45
46 #include "beinfo.h"
47
48 /* some constants fixing the positions of nodes predecessors
49    in the in array */
50 #define CALL_PARAM_OFFSET     2
51 #define BUILDIN_PARAM_OFFSET  1
52 #define SEL_INDEX_OFFSET      2
53 #define RETURN_RESULT_OFFSET  1  /* mem is not a result */
54 #define END_KEEPALIVE_OFFSET  0
55
56 static const char *pnc_name_arr [] = {
57         "pn_Cmp_False", "pn_Cmp_Eq", "pn_Cmp_Lt", "pn_Cmp_Le",
58         "pn_Cmp_Gt", "pn_Cmp_Ge", "pn_Cmp_Lg", "pn_Cmp_Leg",
59         "pn_Cmp_Uo", "pn_Cmp_Ue", "pn_Cmp_Ul", "pn_Cmp_Ule",
60         "pn_Cmp_Ug", "pn_Cmp_Uge", "pn_Cmp_Ne", "pn_Cmp_True"
61 };
62
63 /**
64  * returns the pnc name from an pnc constant
65  */
66 const char *get_pnc_string(int pnc) {
67         assert(pnc >= 0 && pnc <
68                         (int) (sizeof(pnc_name_arr)/sizeof(pnc_name_arr[0])));
69         return pnc_name_arr[pnc];
70 }
71
72 /*
73  * Calculates the negated (Complement(R)) pnc condition.
74  */
75 pn_Cmp get_negated_pnc(long pnc, ir_mode *mode) {
76         pnc ^= pn_Cmp_True;
77
78         /* do NOT add the Uo bit for non-floating point values */
79         if (! mode_is_float(mode))
80                 pnc &= ~pn_Cmp_Uo;
81
82         return (pn_Cmp) pnc;
83 }
84
85 /* Calculates the inversed (R^-1) pnc condition, i.e., "<" --> ">" */
86 pn_Cmp get_inversed_pnc(long pnc) {
87         long code    = pnc & ~(pn_Cmp_Lt|pn_Cmp_Gt);
88         long lesser  = pnc & pn_Cmp_Lt;
89         long greater = pnc & pn_Cmp_Gt;
90
91         code |= (lesser ? pn_Cmp_Gt : 0) | (greater ? pn_Cmp_Lt : 0);
92
93         return (pn_Cmp) code;
94 }
95
96 /**
97  * Indicates, whether additional data can be registered to ir nodes.
98  * If set to 1, this is not possible anymore.
99  */
100 static int forbid_new_data = 0;
101
102 /**
103  * The amount of additional space for custom data to be allocated upon
104  * creating a new node.
105  */
106 unsigned firm_add_node_size = 0;
107
108
109 /* register new space for every node */
110 unsigned firm_register_additional_node_data(unsigned size) {
111         assert(!forbid_new_data && "Too late to register additional node data");
112
113         if (forbid_new_data)
114                 return 0;
115
116         return firm_add_node_size += size;
117 }
118
119
120 void init_irnode(void) {
121         /* Forbid the addition of new data to an ir node. */
122         forbid_new_data = 1;
123 }
124
125 /*
126  * irnode constructor.
127  * Create a new irnode in irg, with an op, mode, arity and
128  * some incoming irnodes.
129  * If arity is negative, a node with a dynamic array is created.
130  */
131 ir_node *
132 new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op, ir_mode *mode,
133             int arity, ir_node **in)
134 {
135         ir_node *res;
136         size_t node_size = offsetof(ir_node, attr) + op->attr_size + firm_add_node_size;
137         char *p;
138         int i;
139
140         assert(irg);
141         assert(op);
142         assert(mode);
143         p = obstack_alloc(irg->obst, node_size);
144         memset(p, 0, node_size);
145         res = (ir_node *)(p + firm_add_node_size);
146
147         res->kind     = k_ir_node;
148         res->op       = op;
149         res->mode     = mode;
150         res->visited  = 0;
151         res->node_idx = irg_register_node_idx(irg, res);
152         res->link     = NULL;
153         res->deps     = NULL;
154
155         if (arity < 0) {
156                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
157         } else {
158                 /* not nice but necessary: End and Sync must always have a flexible array */
159                 if (op == op_End || op == op_Sync)
160                         res->in = NEW_ARR_F(ir_node *, (arity+1));
161                 else
162                         res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
163                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
164         }
165
166         res->in[0]   = block;
167         set_irn_dbg_info(res, db);
168         res->out     = NULL;
169         res->node_nr = get_irp_new_node_nr();
170
171         for (i = 0; i < EDGE_KIND_LAST; ++i)
172                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
173
174         /* don't put this into the for loop, arity is -1 for some nodes! */
175         edges_notify_edge(res, -1, res->in[0], NULL, irg);
176         for (i = 1; i <= arity; ++i)
177                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
178
179         hook_new_node(irg, res);
180         if (get_irg_phase_state(irg) == phase_backend) {
181                 be_info_new_node(res);
182         }
183
184         return res;
185 }
186
187 /*-- getting some parameters from ir_nodes --*/
188
189 int (is_ir_node)(const void *thing) {
190         return _is_ir_node(thing);
191 }
192
193 int (get_irn_intra_arity)(const ir_node *node) {
194         return _get_irn_intra_arity(node);
195 }
196
197 int (get_irn_inter_arity)(const ir_node *node) {
198         return _get_irn_inter_arity(node);
199 }
200
201 int (*_get_irn_arity)(const ir_node *node) = _get_irn_intra_arity;
202
203 int (get_irn_arity)(const ir_node *node) {
204         return _get_irn_arity(node);
205 }
206
207 /* Returns the array with ins. This array is shifted with respect to the
208    array accessed by get_irn_n: The block operand is at position 0 not -1.
209    (@@@ This should be changed.)
210    The order of the predecessors in this array is not guaranteed, except that
211    lists of operands as predecessors of Block or arguments of a Call are
212    consecutive. */
213 ir_node **get_irn_in(const ir_node *node) {
214         assert(node);
215 #ifdef INTERPROCEDURAL_VIEW
216         if (get_interprocedural_view()) { /* handle Filter and Block specially */
217                 if (get_irn_opcode(node) == iro_Filter) {
218                         assert(node->attr.filter.in_cg);
219                         return node->attr.filter.in_cg;
220                 } else if (get_irn_opcode(node) == iro_Block && node->attr.block.in_cg) {
221                         return node->attr.block.in_cg;
222                 }
223                 /* else fall through */
224         }
225 #endif /* INTERPROCEDURAL_VIEW */
226         return node->in;
227 }
228
229 void set_irn_in(ir_node *node, int arity, ir_node **in) {
230         int i;
231         ir_node *** pOld_in;
232         ir_graph *irg = current_ir_graph;
233
234         assert(node);
235 #ifdef INTERPROCEDURAL_VIEW
236         if (get_interprocedural_view()) { /* handle Filter and Block specially */
237                 ir_opcode code = get_irn_opcode(node);
238                 if (code  == iro_Filter) {
239                         assert(node->attr.filter.in_cg);
240                         pOld_in = &node->attr.filter.in_cg;
241                 } else if (code == iro_Block && node->attr.block.in_cg) {
242                         pOld_in = &node->attr.block.in_cg;
243                 } else {
244                         pOld_in = &node->in;
245                 }
246         } else
247 #endif /* INTERPROCEDURAL_VIEW */
248                 pOld_in = &node->in;
249
250
251         for (i = 0; i < arity; i++) {
252                 if (i < ARR_LEN(*pOld_in)-1)
253                         edges_notify_edge(node, i, in[i], (*pOld_in)[i+1], irg);
254                 else
255                         edges_notify_edge(node, i, in[i], NULL,            irg);
256         }
257         for (;i < ARR_LEN(*pOld_in)-1; i++) {
258                 edges_notify_edge(node, i, NULL, (*pOld_in)[i+1], irg);
259         }
260
261         if (arity != ARR_LEN(*pOld_in) - 1) {
262                 ir_node * block = (*pOld_in)[0];
263                 *pOld_in = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
264                 (*pOld_in)[0] = block;
265         }
266         fix_backedges(irg->obst, node);
267
268         memcpy((*pOld_in) + 1, in, sizeof(ir_node *) * arity);
269 }
270
271 ir_node *(get_irn_intra_n)(const ir_node *node, int n) {
272         return _get_irn_intra_n (node, n);
273 }
274
275 ir_node *(get_irn_inter_n)(const ir_node *node, int n) {
276         return _get_irn_inter_n (node, n);
277 }
278
279 ir_node *(*_get_irn_n)(const ir_node *node, int n) = _get_irn_intra_n;
280
281 ir_node *(get_irn_n)(const ir_node *node, int n) {
282         return _get_irn_n(node, n);
283 }
284
285 void set_irn_n(ir_node *node, int n, ir_node *in) {
286         assert(node && node->kind == k_ir_node);
287         assert(-1 <= n);
288         assert(n < get_irn_arity(node));
289         assert(in && in->kind == k_ir_node);
290
291         if ((n == -1) && (get_irn_opcode(node) == iro_Filter)) {
292                 /* Change block pred in both views! */
293                 node->in[n + 1] = in;
294                 assert(node->attr.filter.in_cg);
295                 node->attr.filter.in_cg[n + 1] = in;
296                 return;
297         }
298 #ifdef INTERPROCEDURAL_VIEW
299         if (get_interprocedural_view()) { /* handle Filter and Block specially */
300                 if (get_irn_opcode(node) == iro_Filter) {
301                         assert(node->attr.filter.in_cg);
302                         node->attr.filter.in_cg[n + 1] = in;
303                         return;
304                 } else if (get_irn_opcode(node) == iro_Block && node->attr.block.in_cg) {
305                         node->attr.block.in_cg[n + 1] = in;
306                         return;
307                 }
308                 /* else fall through */
309         }
310 #endif /* INTERPROCEDURAL_VIEW */
311
312         /* Call the hook */
313         hook_set_irn_n(node, n, in, node->in[n + 1]);
314
315         /* Here, we rely on src and tgt being in the current ir graph */
316         edges_notify_edge(node, n, in, node->in[n + 1], current_ir_graph);
317
318         node->in[n + 1] = in;
319 }
320
321 int add_irn_n(ir_node *node, ir_node *in) {
322         int pos;
323         ir_graph *irg = get_irn_irg(node);
324
325         assert(node->op->opar == oparity_dynamic);
326         pos = ARR_LEN(node->in) - 1;
327         ARR_APP1(ir_node *, node->in, in);
328         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
329
330         /* Call the hook */
331         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
332
333         return pos;
334 }
335
336 void del_Sync_n(ir_node *n, int i)
337 {
338         int      arity     = get_Sync_n_preds(n);
339         ir_node *last_pred = get_Sync_pred(n, arity - 1);
340         set_Sync_pred(n, i, last_pred);
341         edges_notify_edge(n, arity - 1, NULL, last_pred, get_irn_irg(n));
342         ARR_SHRINKLEN(get_irn_in(n), arity);
343 }
344
345 int (get_irn_deps)(const ir_node *node) {
346         return _get_irn_deps(node);
347 }
348
349 ir_node *(get_irn_dep)(const ir_node *node, int pos) {
350         return _get_irn_dep(node, pos);
351 }
352
353 void (set_irn_dep)(ir_node *node, int pos, ir_node *dep) {
354         _set_irn_dep(node, pos, dep);
355 }
356
357 int add_irn_dep(ir_node *node, ir_node *dep) {
358         int res = 0;
359
360         /* DEP edges are only allowed in backend phase */
361         assert(get_irg_phase_state(get_irn_irg(node)) == phase_backend);
362         if (node->deps == NULL) {
363                 node->deps = NEW_ARR_F(ir_node *, 1);
364                 node->deps[0] = dep;
365         } else {
366                 int i, n;
367                 int first_zero = -1;
368
369                 for(i = 0, n = ARR_LEN(node->deps); i < n; ++i) {
370                         if(node->deps[i] == NULL)
371                                 first_zero = i;
372
373                         if(node->deps[i] == dep)
374                                 return i;
375                 }
376
377                 if (first_zero >= 0) {
378                         node->deps[first_zero] = dep;
379                         res = first_zero;
380                 } else {
381                         ARR_APP1(ir_node *, node->deps, dep);
382                         res = n;
383                 }
384         }
385
386         edges_notify_edge_kind(node, res, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
387
388         return res;
389 }
390
391 void add_irn_deps(ir_node *tgt, ir_node *src) {
392         int i, n;
393
394         for (i = 0, n = get_irn_deps(src); i < n; ++i)
395                 add_irn_dep(tgt, get_irn_dep(src, i));
396 }
397
398
399 ir_mode *(get_irn_mode)(const ir_node *node) {
400         return _get_irn_mode(node);
401 }
402
403 void (set_irn_mode)(ir_node *node, ir_mode *mode) {
404         _set_irn_mode(node, mode);
405 }
406
407 ir_modecode get_irn_modecode(const ir_node *node) {
408         assert(node);
409         return node->mode->code;
410 }
411
412 /** Gets the string representation of the mode .*/
413 const char *get_irn_modename(const ir_node *node) {
414         assert(node);
415         return get_mode_name(node->mode);
416 }
417
418 ident *get_irn_modeident(const ir_node *node) {
419         assert(node);
420         return get_mode_ident(node->mode);
421 }
422
423 ir_op *(get_irn_op)(const ir_node *node) {
424         return _get_irn_op(node);
425 }
426
427 /* should be private to the library: */
428 void (set_irn_op)(ir_node *node, ir_op *op) {
429         _set_irn_op(node, op);
430 }
431
432 unsigned (get_irn_opcode)(const ir_node *node) {
433         return _get_irn_opcode(node);
434 }
435
436 const char *get_irn_opname(const ir_node *node) {
437         assert(node);
438         if (is_Phi0(node)) return "Phi0";
439         return get_id_str(node->op->name);
440 }
441
442 ident *get_irn_opident(const ir_node *node) {
443         assert(node);
444         return node->op->name;
445 }
446
447 ir_visited_t (get_irn_visited)(const ir_node *node) {
448         return _get_irn_visited(node);
449 }
450
451 void (set_irn_visited)(ir_node *node, ir_visited_t visited) {
452         _set_irn_visited(node, visited);
453 }
454
455 void (mark_irn_visited)(ir_node *node) {
456         _mark_irn_visited(node);
457 }
458
459 int (irn_visited)(const ir_node *node) {
460         return _irn_visited(node);
461 }
462
463 int (irn_visited_else_mark)(ir_node *node) {
464         return _irn_visited_else_mark(node);
465 }
466
467 void (set_irn_link)(ir_node *node, void *link) {
468         _set_irn_link(node, link);
469 }
470
471 void *(get_irn_link)(const ir_node *node) {
472         return _get_irn_link(node);
473 }
474
475 op_pin_state (get_irn_pinned)(const ir_node *node) {
476         return _get_irn_pinned(node);
477 }
478
479 op_pin_state (is_irn_pinned_in_irg) (const ir_node *node) {
480         return _is_irn_pinned_in_irg(node);
481 }
482
483 void set_irn_pinned(ir_node *node, op_pin_state state) {
484         /* due to optimization an opt may be turned into a Tuple */
485         if (is_Tuple(node))
486                 return;
487
488         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
489         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
490
491         node->attr.except.pin_state = state;
492 }
493
494 /* Outputs a unique number for this node */
495 long get_irn_node_nr(const ir_node *node) {
496         assert(node);
497         return node->node_nr;
498 }
499
500 const_attr *get_irn_const_attr(ir_node *node) {
501         assert(is_Const(node));
502         return &node->attr.con;
503 }
504
505 long get_irn_proj_attr(ir_node *node) {
506         /* BEWARE: check for true Proj node here, no Filter */
507         assert(node->op == op_Proj);
508         return node->attr.proj;
509 }
510
511 alloc_attr *get_irn_alloc_attr(ir_node *node) {
512         assert(is_Alloc(node));
513         return &node->attr.alloc;
514 }
515
516 free_attr *get_irn_free_attr(ir_node *node) {
517         assert(is_Free(node));
518         return &node->attr.free;
519 }
520
521 symconst_attr *get_irn_symconst_attr(ir_node *node) {
522         assert(is_SymConst(node));
523         return &node->attr.symc;
524 }
525
526 ir_type *get_irn_call_attr(ir_node *node) {
527         assert(is_Call(node));
528         return node->attr.call.type = skip_tid(node->attr.call.type);
529 }
530
531 sel_attr *get_irn_sel_attr(ir_node *node) {
532         assert(is_Sel(node));
533         return &node->attr.sel;
534 }
535
536 phi_attr *get_irn_phi_attr(ir_node *node) {
537         return &node->attr.phi;
538 }
539
540 block_attr *get_irn_block_attr(ir_node *node) {
541         assert(is_Block(node));
542         return &node->attr.block;
543 }
544
545 load_attr *get_irn_load_attr(ir_node *node) {
546         assert(is_Load(node));
547         return &node->attr.load;
548 }
549
550 store_attr *get_irn_store_attr(ir_node *node) {
551         assert(is_Store(node));
552         return &node->attr.store;
553 }
554
555 except_attr *get_irn_except_attr(ir_node *node) {
556         assert(node->op == op_Div || node->op == op_Quot ||
557                node->op == op_DivMod || node->op == op_Mod || node->op == op_Call || node->op == op_Alloc || node->op == op_Bound);
558         return &node->attr.except;
559 }
560
561 divmod_attr *get_irn_divmod_attr(ir_node *node) {
562         assert(node->op == op_Div || node->op == op_Quot ||
563                node->op == op_DivMod || node->op == op_Mod);
564         return &node->attr.divmod;
565 }
566
567 builtin_attr *get_irn_builtin_attr(ir_node *node) {
568         assert(is_Builtin(node));
569         return &node->attr.builtin;
570 }
571
572 void *(get_irn_generic_attr)(ir_node *node) {
573         assert(is_ir_node(node));
574         return _get_irn_generic_attr(node);
575 }
576
577 const void *(get_irn_generic_attr_const)(const ir_node *node) {
578         assert(is_ir_node(node));
579         return _get_irn_generic_attr_const(node);
580 }
581
582 unsigned (get_irn_idx)(const ir_node *node) {
583         assert(is_ir_node(node));
584         return _get_irn_idx(node);
585 }
586
587 int get_irn_pred_pos(ir_node *node, ir_node *arg) {
588         int i;
589         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
590                 if (get_irn_n(node, i) == arg)
591                         return i;
592         }
593         return -1;
594 }
595
596 /** manipulate fields of individual nodes **/
597
598 /* this works for all except Block */
599 ir_node *get_nodes_block(const ir_node *node) {
600         assert(node->op != op_Block);
601         return get_irn_n(node, -1);
602 }
603
604 void set_nodes_block(ir_node *node, ir_node *block) {
605         assert(node->op != op_Block);
606         set_irn_n(node, -1, block);
607 }
608
609 /* this works for all except Block */
610 ir_node *get_nodes_MacroBlock(const ir_node *node) {
611         assert(node->op != op_Block);
612         return get_Block_MacroBlock(get_irn_n(node, -1));
613 }
614
615 /* Test whether arbitrary node is frame pointer, i.e. Proj(pn_Start_P_frame_base)
616  * from Start.  If so returns frame type, else Null. */
617 ir_type *is_frame_pointer(const ir_node *n) {
618         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
619                 ir_node *start = get_Proj_pred(n);
620                 if (is_Start(start)) {
621                         return get_irg_frame_type(get_irn_irg(start));
622                 }
623         }
624         return NULL;
625 }
626
627 /* Test whether arbitrary node is tls pointer, i.e. Proj(pn_Start_P_tls)
628  * from Start.  If so returns tls type, else Null. */
629 ir_type *is_tls_pointer(const ir_node *n) {
630         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_tls)) {
631                 ir_node *start = get_Proj_pred(n);
632                 if (is_Start(start)) {
633                         return get_tls_type();
634                 }
635         }
636         return NULL;
637 }
638
639 ir_node **get_Block_cfgpred_arr(ir_node *node) {
640         assert(is_Block(node));
641         return (ir_node **)&(get_irn_in(node)[1]);
642 }
643
644 int (get_Block_n_cfgpreds)(const ir_node *node) {
645         return _get_Block_n_cfgpreds(node);
646 }
647
648 ir_node *(get_Block_cfgpred)(const ir_node *node, int pos) {
649         return _get_Block_cfgpred(node, pos);
650 }
651
652 void set_Block_cfgpred(ir_node *node, int pos, ir_node *pred) {
653         assert(is_Block(node));
654         set_irn_n(node, pos, pred);
655 }
656
657 int get_Block_cfgpred_pos(const ir_node *block, const ir_node *pred) {
658         int i;
659
660         for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
661                 if (get_Block_cfgpred_block(block, i) == pred)
662                         return i;
663         }
664         return -1;
665 }
666
667 ir_node *(get_Block_cfgpred_block)(const ir_node *node, int pos) {
668         return _get_Block_cfgpred_block(node, pos);
669 }
670
671 int get_Block_matured(const ir_node *node) {
672         assert(is_Block(node));
673         return (int)node->attr.block.is_matured;
674 }
675
676 void set_Block_matured(ir_node *node, int matured) {
677         assert(is_Block(node));
678         node->attr.block.is_matured = matured;
679 }
680
681 ir_visited_t (get_Block_block_visited)(const ir_node *node) {
682         return _get_Block_block_visited(node);
683 }
684
685 void (set_Block_block_visited)(ir_node *node, ir_visited_t visit) {
686         _set_Block_block_visited(node, visit);
687 }
688
689 /* For this current_ir_graph must be set. */
690 void (mark_Block_block_visited)(ir_node *node) {
691         _mark_Block_block_visited(node);
692 }
693
694 int (Block_block_visited)(const ir_node *node) {
695         return _Block_block_visited(node);
696 }
697
698 ir_node *get_Block_graph_arr(ir_node *node, int pos) {
699         assert(is_Block(node));
700         return node->attr.block.graph_arr[pos+1];
701 }
702
703 void set_Block_graph_arr(ir_node *node, int pos, ir_node *value) {
704         assert(is_Block(node));
705         node->attr.block.graph_arr[pos+1] = value;
706 }
707
708 #ifdef INTERPROCEDURAL_VIEW
709 void set_Block_cg_cfgpred_arr(ir_node *node, int arity, ir_node *in[]) {
710         assert(is_Block(node));
711         if (node->attr.block.in_cg == NULL || arity != ARR_LEN(node->attr.block.in_cg) - 1) {
712                 node->attr.block.in_cg = NEW_ARR_D(ir_node *, current_ir_graph->obst, arity + 1);
713                 node->attr.block.in_cg[0] = NULL;
714                 node->attr.block.cg_backedge = new_backedge_arr(current_ir_graph->obst, arity);
715                 {
716                         /* Fix backedge array.  fix_backedges() operates depending on
717                            interprocedural_view. */
718                         int ipv = get_interprocedural_view();
719                         set_interprocedural_view(1);
720                         fix_backedges(current_ir_graph->obst, node);
721                         set_interprocedural_view(ipv);
722                 }
723         }
724         memcpy(node->attr.block.in_cg + 1, in, sizeof(ir_node *) * arity);
725 }
726
727 void set_Block_cg_cfgpred(ir_node *node, int pos, ir_node *pred) {
728         assert(is_Block(node) && node->attr.block.in_cg &&
729                0 <= pos && pos < ARR_LEN(node->attr.block.in_cg) - 1);
730         node->attr.block.in_cg[pos + 1] = pred;
731 }
732
733 ir_node **get_Block_cg_cfgpred_arr(ir_node *node) {
734         assert(is_Block(node));
735         return node->attr.block.in_cg == NULL ? NULL : node->attr.block.in_cg  + 1;
736 }
737
738 int get_Block_cg_n_cfgpreds(const ir_node *node) {
739         assert(is_Block(node));
740         return node->attr.block.in_cg == NULL ? 0 : ARR_LEN(node->attr.block.in_cg) - 1;
741 }
742
743 ir_node *get_Block_cg_cfgpred(const ir_node *node, int pos) {
744         assert(is_Block(node) && node->attr.block.in_cg);
745         return node->attr.block.in_cg[pos + 1];
746 }
747
748 void remove_Block_cg_cfgpred_arr(ir_node *node) {
749         assert(is_Block(node));
750         node->attr.block.in_cg = NULL;
751 }
752 #endif /* INTERPROCEDURAL_VIEW */
753
754 ir_node *(set_Block_dead)(ir_node *block) {
755         return _set_Block_dead(block);
756 }
757
758 int (is_Block_dead)(const ir_node *block) {
759         return _is_Block_dead(block);
760 }
761
762 ir_extblk *get_Block_extbb(const ir_node *block) {
763         ir_extblk *res;
764         assert(is_Block(block));
765         res = block->attr.block.extblk;
766         assert(res == NULL || is_ir_extbb(res));
767         return res;
768 }
769
770 void set_Block_extbb(ir_node *block, ir_extblk *extblk) {
771         assert(is_Block(block));
772         assert(extblk == NULL || is_ir_extbb(extblk));
773         block->attr.block.extblk = extblk;
774 }
775
776 /* Returns the macro block header of a block.*/
777 ir_node *get_Block_MacroBlock(const ir_node *block) {
778         ir_node *mbh;
779         assert(is_Block(block));
780         mbh = get_irn_n(block, -1);
781         /* once macro block header is respected by all optimizations,
782            this assert can be removed */
783         assert(mbh != NULL);
784         return mbh;
785 }
786
787 /* Sets the macro block header of a block. */
788 void set_Block_MacroBlock(ir_node *block, ir_node *mbh) {
789         assert(is_Block(block));
790         assert(is_Block(mbh));
791         set_irn_n(block, -1, mbh);
792 }
793
794 /* returns the macro block header of a node. */
795 ir_node *get_irn_MacroBlock(const ir_node *n) {
796         if (! is_Block(n)) {
797                 n = get_nodes_block(n);
798                 /* if the Block is Bad, do NOT try to get it's MB, it will fail. */
799                 if (is_Bad(n))
800                         return (ir_node *)n;
801         }
802         return get_Block_MacroBlock(n);
803 }
804
805 /* returns the graph of a Block. */
806 ir_graph *get_Block_irg(const ir_node *block) {
807         assert(is_Block(block));
808         return block->attr.block.irg;
809 }
810
811 int has_Block_label(const ir_node *block) {
812         assert(is_Block(block));
813         return block->attr.block.has_label;
814 }
815
816 ir_label_t get_Block_label(const ir_node *block) {
817         assert(is_Block(block));
818         return block->attr.block.label;
819 }
820
821 void set_Block_label(ir_node *block, ir_label_t label) {
822         assert(is_Block(block));
823         block->attr.block.has_label = 1;
824         block->attr.block.label = label;
825 }
826
827 ir_node *(get_Block_phis)(const ir_node *block) {
828         return _get_Block_phis(block);
829 }
830
831 void (set_Block_phis)(ir_node *block, ir_node *phi) {
832         _set_Block_phis(block, phi);
833 }
834
835 void (add_Block_phi)(ir_node *block, ir_node *phi) {
836         _add_Block_phi(block, phi);
837 }
838
839 /* Get the Block mark (single bit). */
840 unsigned (get_Block_mark)(const ir_node *block) {
841         return _get_Block_mark(block);
842 }
843
844 /* Set the Block mark (single bit). */
845 void (set_Block_mark)(ir_node *block, unsigned mark) {
846         _set_Block_mark(block, mark);
847 }
848
849 int get_End_n_keepalives(const ir_node *end) {
850         assert(is_End(end));
851         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
852 }
853
854 ir_node *get_End_keepalive(const ir_node *end, int pos) {
855         assert(is_End(end));
856         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
857 }
858
859 void add_End_keepalive(ir_node *end, ir_node *ka) {
860         assert(is_End(end));
861         add_irn_n(end, ka);
862 }
863
864 void set_End_keepalive(ir_node *end, int pos, ir_node *ka) {
865         assert(is_End(end));
866         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
867 }
868
869 /* Set new keep-alives */
870 void set_End_keepalives(ir_node *end, int n, ir_node *in[]) {
871         int i;
872         ir_graph *irg = get_irn_irg(end);
873
874         /* notify that edges are deleted */
875         for (i = END_KEEPALIVE_OFFSET; i < ARR_LEN(end->in) - 1; ++i) {
876                 edges_notify_edge(end, i, NULL, end->in[i + 1], irg);
877         }
878         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
879
880         for (i = 0; i < n; ++i) {
881                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
882                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
883         }
884 }
885
886 /* Set new keep-alives from old keep-alives, skipping irn */
887 void remove_End_keepalive(ir_node *end, ir_node *irn) {
888         int      n = get_End_n_keepalives(end);
889         int      i, idx;
890         ir_graph *irg;
891
892         idx = -1;
893         for (i = n -1; i >= 0; --i) {
894                 ir_node *old_ka = end->in[1 + END_KEEPALIVE_OFFSET + i];
895
896                 /* find irn */
897                 if (old_ka == irn) {
898                         idx = i;
899                         goto found;
900                 }
901         }
902         return;
903 found:
904         irg = get_irn_irg(end);
905
906         /* remove the edge */
907         edges_notify_edge(end, idx, NULL, irn, irg);
908
909         if (idx != n - 1) {
910                 /* exchange with the last one */
911                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
912                 edges_notify_edge(end, n - 1, NULL, old, irg);
913                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
914                 edges_notify_edge(end, idx, old, NULL, irg);
915         }
916         /* now n - 1 keeps, 1 block input */
917         ARR_RESIZE(ir_node *, end->in, (n - 1) + 1 + END_KEEPALIVE_OFFSET);
918 }
919
920 /* remove Bads, NoMems and doublets from the keep-alive set */
921 void remove_End_Bads_and_doublets(ir_node *end) {
922         pset_new_t keeps;
923         int        idx, n = get_End_n_keepalives(end);
924         ir_graph   *irg;
925
926         if (n <= 0)
927                 return;
928
929         irg = get_irn_irg(end);
930         pset_new_init(&keeps);
931
932         for (idx = n - 1; idx >= 0; --idx) {
933                 ir_node *ka = get_End_keepalive(end, idx);
934
935                 if (is_Bad(ka) || is_NoMem(ka) || pset_new_contains(&keeps, ka)) {
936                         /* remove the edge */
937                         edges_notify_edge(end, idx, NULL, ka, irg);
938
939                         if (idx != n - 1) {
940                                 /* exchange with the last one */
941                                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
942                                 edges_notify_edge(end, n - 1, NULL, old, irg);
943                                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
944                                 edges_notify_edge(end, idx, old, NULL, irg);
945                         }
946                         --n;
947                 } else {
948                         pset_new_insert(&keeps, ka);
949                 }
950         }
951         /* n keeps, 1 block input */
952         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
953
954         pset_new_destroy(&keeps);
955 }
956
957 void free_End(ir_node *end) {
958         assert(is_End(end));
959         end->kind = k_BAD;
960         DEL_ARR_F(end->in);
961         end->in = NULL;   /* @@@ make sure we get an error if we use the
962                              in array afterwards ... */
963 }
964
965 /* Return the target address of an IJmp */
966 ir_node *get_IJmp_target(const ir_node *ijmp) {
967         assert(is_IJmp(ijmp));
968         return get_irn_n(ijmp, 0);
969 }
970
971 /** Sets the target address of an IJmp */
972 void set_IJmp_target(ir_node *ijmp, ir_node *tgt) {
973         assert(is_IJmp(ijmp));
974         set_irn_n(ijmp, 0, tgt);
975 }
976
977 /*
978 > Implementing the case construct (which is where the constant Proj node is
979 > important) involves far more than simply determining the constant values.
980 > We could argue that this is more properly a function of the translator from
981 > Firm to the target machine.  That could be done if there was some way of
982 > projecting "default" out of the Cond node.
983 I know it's complicated.
984 Basically there are two problems:
985  - determining the gaps between the Projs
986  - determining the biggest case constant to know the proj number for
987    the default node.
988 I see several solutions:
989 1. Introduce a ProjDefault node.  Solves both problems.
990    This means to extend all optimizations executed during construction.
991 2. Give the Cond node for switch two flavors:
992    a) there are no gaps in the Projs  (existing flavor)
993    b) gaps may exist, default proj is still the Proj with the largest
994       projection number.  This covers also the gaps.
995 3. Fix the semantic of the Cond to that of 2b)
996
997 Solution 2 seems to be the best:
998 Computing the gaps in the Firm representation is not too hard, i.e.,
999 libFIRM can implement a routine that transforms between the two
1000 flavours.  This is also possible for 1) but 2) does not require to
1001 change any existing optimization.
1002 Further it should be far simpler to determine the biggest constant than
1003 to compute all gaps.
1004 I don't want to choose 3) as 2a) seems to have advantages for
1005 dataflow analysis and 3) does not allow to convert the representation to
1006 2a).
1007 */
1008
1009 const char *get_cond_kind_name(cond_kind kind)
1010 {
1011 #define X(a)    case a: return #a;
1012         switch (kind) {
1013                 X(dense);
1014                 X(fragmentary);
1015         }
1016         return "<unknown>";
1017 #undef X
1018 }
1019
1020 ir_node *
1021 get_Cond_selector(const ir_node *node) {
1022         assert(is_Cond(node));
1023         return get_irn_n(node, 0);
1024 }
1025
1026 void
1027 set_Cond_selector(ir_node *node, ir_node *selector) {
1028         assert(is_Cond(node));
1029         set_irn_n(node, 0, selector);
1030 }
1031
1032 cond_kind
1033 get_Cond_kind(const ir_node *node) {
1034         assert(is_Cond(node));
1035         return node->attr.cond.kind;
1036 }
1037
1038 void
1039 set_Cond_kind(ir_node *node, cond_kind kind) {
1040         assert(is_Cond(node));
1041         node->attr.cond.kind = kind;
1042 }
1043
1044 long
1045 get_Cond_default_proj(const ir_node *node) {
1046         assert(is_Cond(node));
1047         return node->attr.cond.default_proj;
1048 }
1049
1050 void set_Cond_default_proj(ir_node *node, long defproj) {
1051         assert(is_Cond(node));
1052         node->attr.cond.default_proj = defproj;
1053 }
1054
1055 ir_node *
1056 get_Return_mem(const ir_node *node) {
1057         assert(is_Return(node));
1058         return get_irn_n(node, 0);
1059 }
1060
1061 void
1062 set_Return_mem(ir_node *node, ir_node *mem) {
1063         assert(is_Return(node));
1064         set_irn_n(node, 0, mem);
1065 }
1066
1067 int
1068 get_Return_n_ress(const ir_node *node) {
1069         assert(is_Return(node));
1070         return (get_irn_arity(node) - RETURN_RESULT_OFFSET);
1071 }
1072
1073 ir_node **
1074 get_Return_res_arr(ir_node *node) {
1075         assert(is_Return(node));
1076         if (get_Return_n_ress(node) > 0)
1077                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
1078         else
1079                 return NULL;
1080 }
1081
1082 /*
1083 void
1084 set_Return_n_res(ir_node *node, int results) {
1085         assert(is_Return(node));
1086 }
1087 */
1088
1089 ir_node *
1090 get_Return_res(const ir_node *node, int pos) {
1091         assert(is_Return(node));
1092         assert(get_Return_n_ress(node) > pos);
1093         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
1094 }
1095
1096 void
1097 set_Return_res(ir_node *node, int pos, ir_node *res){
1098         assert(is_Return(node));
1099         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
1100 }
1101
1102 tarval *(get_Const_tarval)(const ir_node *node) {
1103         return _get_Const_tarval(node);
1104 }
1105
1106 void
1107 set_Const_tarval(ir_node *node, tarval *con) {
1108         assert(is_Const(node));
1109         node->attr.con.tv = con;
1110 }
1111
1112 int (is_Const_null)(const ir_node *node) {
1113         return _is_Const_null(node);
1114 }
1115
1116 int (is_Const_one)(const ir_node *node) {
1117         return _is_Const_one(node);
1118 }
1119
1120 int (is_Const_all_one)(const ir_node *node) {
1121         return _is_Const_all_one(node);
1122 }
1123
1124
1125 /* The source language type.  Must be an atomic type.  Mode of type must
1126    be mode of node. For tarvals from entities type must be pointer to
1127    entity type. */
1128 ir_type *
1129 get_Const_type(ir_node *node) {
1130         assert(is_Const(node));
1131         node->attr.con.tp = skip_tid(node->attr.con.tp);
1132         return node->attr.con.tp;
1133 }
1134
1135 void
1136 set_Const_type(ir_node *node, ir_type *tp) {
1137         assert(is_Const(node));
1138         if (tp != firm_unknown_type) {
1139                 assert(is_atomic_type(tp));
1140                 assert(get_type_mode(tp) == get_irn_mode(node));
1141         }
1142         node->attr.con.tp = tp;
1143 }
1144
1145
1146 symconst_kind
1147 get_SymConst_kind(const ir_node *node) {
1148         assert(is_SymConst(node));
1149         return node->attr.symc.kind;
1150 }
1151
1152 void
1153 set_SymConst_kind(ir_node *node, symconst_kind kind) {
1154         assert(is_SymConst(node));
1155         node->attr.symc.kind = kind;
1156 }
1157
1158 ir_type *
1159 get_SymConst_type(const ir_node *node) {
1160         /* the cast here is annoying, but we have to compensate for
1161            the skip_tip() */
1162         ir_node *irn = (ir_node *)node;
1163         assert(is_SymConst(node) &&
1164                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
1165         return irn->attr.symc.sym.type_p = skip_tid(irn->attr.symc.sym.type_p);
1166 }
1167
1168 void
1169 set_SymConst_type(ir_node *node, ir_type *tp) {
1170         assert(is_SymConst(node) &&
1171                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
1172         node->attr.symc.sym.type_p = tp;
1173 }
1174
1175 ident *
1176 get_SymConst_name(const ir_node *node) {
1177         assert(is_SymConst(node) && SYMCONST_HAS_ID(get_SymConst_kind(node)));
1178         return node->attr.symc.sym.ident_p;
1179 }
1180
1181 void
1182 set_SymConst_name(ir_node *node, ident *name) {
1183         assert(is_SymConst(node) && SYMCONST_HAS_ID(get_SymConst_kind(node)));
1184         node->attr.symc.sym.ident_p = name;
1185 }
1186
1187
1188 /* Only to access SymConst of kind symconst_addr_ent.  Else assertion: */
1189 ir_entity *get_SymConst_entity(const ir_node *node) {
1190         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
1191         return node->attr.symc.sym.entity_p;
1192 }
1193
1194 void set_SymConst_entity(ir_node *node, ir_entity *ent) {
1195         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
1196         node->attr.symc.sym.entity_p  = ent;
1197 }
1198
1199 ir_enum_const *get_SymConst_enum(const ir_node *node) {
1200         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
1201         return node->attr.symc.sym.enum_p;
1202 }
1203
1204 void set_SymConst_enum(ir_node *node, ir_enum_const *ec) {
1205         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
1206         node->attr.symc.sym.enum_p  = ec;
1207 }
1208
1209 union symconst_symbol
1210 get_SymConst_symbol(const ir_node *node) {
1211         assert(is_SymConst(node));
1212         return node->attr.symc.sym;
1213 }
1214
1215 void
1216 set_SymConst_symbol(ir_node *node, union symconst_symbol sym) {
1217         assert(is_SymConst(node));
1218         node->attr.symc.sym = sym;
1219 }
1220
1221 ir_label_t get_SymConst_label(const ir_node *node) {
1222         assert(is_SymConst(node) && SYMCONST_HAS_LABEL(get_SymConst_kind(node)));
1223         return node->attr.symc.sym.label;
1224 }
1225
1226 void set_SymConst_label(ir_node *node, ir_label_t label) {
1227         assert(is_SymConst(node) && SYMCONST_HAS_LABEL(get_SymConst_kind(node)));
1228         node->attr.symc.sym.label = label;
1229 }
1230
1231 ir_type *
1232 get_SymConst_value_type(ir_node *node) {
1233         assert(is_SymConst(node));
1234         if (node->attr.symc.tp) node->attr.symc.tp = skip_tid(node->attr.symc.tp);
1235         return node->attr.symc.tp;
1236 }
1237
1238 void
1239 set_SymConst_value_type(ir_node *node, ir_type *tp) {
1240         assert(is_SymConst(node));
1241         node->attr.symc.tp = tp;
1242 }
1243
1244 ir_node *
1245 get_Sel_mem(const ir_node *node) {
1246         assert(is_Sel(node));
1247         return get_irn_n(node, 0);
1248 }
1249
1250 void
1251 set_Sel_mem(ir_node *node, ir_node *mem) {
1252         assert(is_Sel(node));
1253         set_irn_n(node, 0, mem);
1254 }
1255
1256 ir_node *
1257 get_Sel_ptr(const ir_node *node) {
1258         assert(is_Sel(node));
1259         return get_irn_n(node, 1);
1260 }
1261
1262 void
1263 set_Sel_ptr(ir_node *node, ir_node *ptr) {
1264         assert(is_Sel(node));
1265         set_irn_n(node, 1, ptr);
1266 }
1267
1268 int
1269 get_Sel_n_indexs(const ir_node *node) {
1270         assert(is_Sel(node));
1271         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
1272 }
1273
1274 ir_node **
1275 get_Sel_index_arr(ir_node *node) {
1276         assert(is_Sel(node));
1277         if (get_Sel_n_indexs(node) > 0)
1278                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
1279         else
1280                 return NULL;
1281 }
1282
1283 ir_node *
1284 get_Sel_index(const ir_node *node, int pos) {
1285         assert(is_Sel(node));
1286         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
1287 }
1288
1289 void
1290 set_Sel_index(ir_node *node, int pos, ir_node *index) {
1291         assert(is_Sel(node));
1292         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
1293 }
1294
1295 ir_entity *
1296 get_Sel_entity(const ir_node *node) {
1297         assert(is_Sel(node));
1298         return node->attr.sel.entity;
1299 }
1300
1301 /* need a version without const to prevent warning */
1302 static ir_entity *_get_Sel_entity(ir_node *node) {
1303         return get_Sel_entity(node);
1304 }
1305
1306 void
1307 set_Sel_entity(ir_node *node, ir_entity *ent) {
1308         assert(is_Sel(node));
1309         node->attr.sel.entity = ent;
1310 }
1311
1312
1313 /* For unary and binary arithmetic operations the access to the
1314    operands can be factored out.  Left is the first, right the
1315    second arithmetic value  as listed in tech report 0999-33.
1316    unops are: Minus, Abs, Not, Conv, Cast
1317    binops are: Add, Sub, Mul, Quot, DivMod, Div, Mod, And, Or, Eor, Shl,
1318    Shr, Shrs, Rotate, Cmp */
1319
1320
1321 ir_node *
1322 get_Call_mem(const ir_node *node) {
1323         assert(is_Call(node));
1324         return get_irn_n(node, 0);
1325 }
1326
1327 void
1328 set_Call_mem(ir_node *node, ir_node *mem) {
1329         assert(is_Call(node));
1330         set_irn_n(node, 0, mem);
1331 }
1332
1333 ir_node *
1334 get_Call_ptr(const ir_node *node) {
1335         assert(is_Call(node));
1336         return get_irn_n(node, 1);
1337 }
1338
1339 void
1340 set_Call_ptr(ir_node *node, ir_node *ptr) {
1341         assert(is_Call(node));
1342         set_irn_n(node, 1, ptr);
1343 }
1344
1345 ir_node **
1346 get_Call_param_arr(ir_node *node) {
1347         assert(is_Call(node));
1348         return &get_irn_in(node)[CALL_PARAM_OFFSET + 1];
1349 }
1350
1351 int
1352 get_Call_n_params(const ir_node *node)  {
1353         assert(is_Call(node));
1354         return (get_irn_arity(node) - CALL_PARAM_OFFSET);
1355 }
1356
1357 ir_node *
1358 get_Call_param(const ir_node *node, int pos) {
1359         assert(is_Call(node));
1360         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
1361 }
1362
1363 void
1364 set_Call_param(ir_node *node, int pos, ir_node *param) {
1365         assert(is_Call(node));
1366         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
1367 }
1368
1369 ir_type *
1370 get_Call_type(ir_node *node) {
1371         assert(is_Call(node));
1372         return node->attr.call.type = skip_tid(node->attr.call.type);
1373 }
1374
1375 void
1376 set_Call_type(ir_node *node, ir_type *tp) {
1377         assert(is_Call(node));
1378         assert((get_unknown_type() == tp) || is_Method_type(tp));
1379         node->attr.call.type = tp;
1380 }
1381
1382 ir_node *
1383 get_Builtin_mem(const ir_node *node) {
1384         assert(is_Builtin(node));
1385         return get_irn_n(node, 0);
1386 }
1387
1388 void
1389 set_Builin_mem(ir_node *node, ir_node *mem) {
1390         assert(is_Builtin(node));
1391         set_irn_n(node, 0, mem);
1392 }
1393
1394 ir_builtin_kind
1395 get_Builtin_kind(const ir_node *node) {
1396         assert(is_Builtin(node));
1397         return node->attr.builtin.kind;
1398 }
1399
1400 void
1401 set_Builtin_kind(ir_node *node, ir_builtin_kind kind) {
1402         assert(is_Builtin(node));
1403         node->attr.builtin.kind = kind;
1404 }
1405
1406 ir_node **
1407 get_Builtin_param_arr(ir_node *node) {
1408         assert(is_Builtin(node));
1409         return &get_irn_in(node)[BUILDIN_PARAM_OFFSET + 1];
1410 }
1411
1412 int
1413 get_Builtin_n_params(const ir_node *node)  {
1414         assert(is_Builtin(node));
1415         return (get_irn_arity(node) - BUILDIN_PARAM_OFFSET);
1416 }
1417
1418 ir_node *
1419 get_Builtin_param(const ir_node *node, int pos) {
1420         assert(is_Builtin(node));
1421         return get_irn_n(node, pos + BUILDIN_PARAM_OFFSET);
1422 }
1423
1424 void
1425 set_Builtin_param(ir_node *node, int pos, ir_node *param) {
1426         assert(is_Builtin(node));
1427         set_irn_n(node, pos + BUILDIN_PARAM_OFFSET, param);
1428 }
1429
1430 ir_type *
1431 get_Builtin_type(ir_node *node) {
1432         assert(is_Builtin(node));
1433         return node->attr.builtin.type = skip_tid(node->attr.builtin.type);
1434 }
1435
1436 void
1437 set_Builtin_type(ir_node *node, ir_type *tp) {
1438         assert(is_Builtin(node));
1439         assert((get_unknown_type() == tp) || is_Method_type(tp));
1440         node->attr.builtin.type = tp;
1441 }
1442
1443 /* Returns a human readable string for the ir_builtin_kind. */
1444 const char *get_builtin_kind_name(ir_builtin_kind kind) {
1445 #define X(a)    case a: return #a;
1446         switch (kind) {
1447                 X(ir_bk_trap);
1448                 X(ir_bk_debugbreak);
1449                 X(ir_bk_return_address);
1450                 X(ir_bk_frame_address);
1451                 X(ir_bk_prefetch);
1452                 X(ir_bk_ffs);
1453                 X(ir_bk_clz);
1454                 X(ir_bk_ctz);
1455                 X(ir_bk_popcount);
1456                 X(ir_bk_parity);
1457                 X(ir_bk_bswap);
1458                 X(ir_bk_inport);
1459                 X(ir_bk_outport);
1460                 X(ir_bk_inner_trampoline);
1461         }
1462         return "<unknown>";
1463 #undef X
1464 }
1465
1466
1467 int Call_has_callees(const ir_node *node) {
1468         assert(is_Call(node));
1469         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
1470                 (node->attr.call.callee_arr != NULL));
1471 }
1472
1473 int get_Call_n_callees(const ir_node *node) {
1474   assert(is_Call(node) && node->attr.call.callee_arr);
1475   return ARR_LEN(node->attr.call.callee_arr);
1476 }
1477
1478 ir_entity *get_Call_callee(const ir_node *node, int pos) {
1479         assert(pos >= 0 && pos < get_Call_n_callees(node));
1480         return node->attr.call.callee_arr[pos];
1481 }
1482
1483 void set_Call_callee_arr(ir_node *node, const int n, ir_entity ** arr) {
1484         assert(is_Call(node));
1485         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
1486                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, current_ir_graph->obst, n);
1487         }
1488         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
1489 }
1490
1491 void remove_Call_callee_arr(ir_node *node) {
1492         assert(is_Call(node));
1493         node->attr.call.callee_arr = NULL;
1494 }
1495
1496 ir_node *get_CallBegin_ptr(const ir_node *node) {
1497         assert(is_CallBegin(node));
1498         return get_irn_n(node, 0);
1499 }
1500
1501 void set_CallBegin_ptr(ir_node *node, ir_node *ptr) {
1502         assert(is_CallBegin(node));
1503         set_irn_n(node, 0, ptr);
1504 }
1505
1506 ir_node *get_CallBegin_call(const ir_node *node) {
1507         assert(is_CallBegin(node));
1508         return node->attr.callbegin.call;
1509 }
1510
1511 void set_CallBegin_call(ir_node *node, ir_node *call) {
1512         assert(is_CallBegin(node));
1513         node->attr.callbegin.call = call;
1514 }
1515
1516 /*
1517  * Returns non-zero if a Call is surely a self-recursive Call.
1518  * Beware: if this functions returns 0, the call might be self-recursive!
1519  */
1520 int is_self_recursive_Call(const ir_node *call) {
1521         const ir_node *callee = get_Call_ptr(call);
1522
1523         if (is_SymConst_addr_ent(callee)) {
1524                 const ir_entity *ent = get_SymConst_entity(callee);
1525                 const ir_graph  *irg = get_entity_irg(ent);
1526                 if (irg == get_irn_irg(call))
1527                         return 1;
1528         }
1529         return 0;
1530 }
1531
1532 #define BINOP(OP)                                      \
1533 ir_node * get_##OP##_left(const ir_node *node) {       \
1534   assert(is_##OP(node));                               \
1535   return get_irn_n(node, node->op->op_index);          \
1536 }                                                      \
1537 void set_##OP##_left(ir_node *node, ir_node *left) {   \
1538   assert(is_##OP(node));                               \
1539   set_irn_n(node, node->op->op_index, left);           \
1540 }                                                      \
1541 ir_node *get_##OP##_right(const ir_node *node) {       \
1542   assert(is_##OP(node));                               \
1543   return get_irn_n(node, node->op->op_index + 1);      \
1544 }                                                      \
1545 void set_##OP##_right(ir_node *node, ir_node *right) { \
1546   assert(is_##OP(node));                               \
1547   set_irn_n(node, node->op->op_index + 1, right);      \
1548 }
1549
1550 #define UNOP(OP)                                  \
1551 ir_node *get_##OP##_op(const ir_node *node) {     \
1552   assert(is_##OP(node));                          \
1553   return get_irn_n(node, node->op->op_index);     \
1554 }                                                 \
1555 void set_##OP##_op(ir_node *node, ir_node *op) {  \
1556   assert(is_##OP(node));                          \
1557   set_irn_n(node, node->op->op_index, op);        \
1558 }
1559
1560 #define BINOP_MEM(OP)                         \
1561 BINOP(OP)                                     \
1562                                               \
1563 ir_node *                                     \
1564 get_##OP##_mem(const ir_node *node) {         \
1565   assert(is_##OP(node));                      \
1566   return get_irn_n(node, 0);                  \
1567 }                                             \
1568                                               \
1569 void                                          \
1570 set_##OP##_mem(ir_node *node, ir_node *mem) { \
1571   assert(is_##OP(node));                      \
1572   set_irn_n(node, 0, mem);                    \
1573 }
1574
1575 #define DIVOP(OP)                                       \
1576 BINOP_MEM(OP)                                           \
1577                                                         \
1578 ir_mode *get_##OP##_resmode(const ir_node *node) {      \
1579   assert(is_##OP(node));                                \
1580   return node->attr.divmod.resmode;                     \
1581 }                                                       \
1582                                                         \
1583 void set_##OP##_resmode(ir_node *node, ir_mode *mode) { \
1584   assert(is_##OP(node));                                \
1585   node->attr.divmod.resmode = mode;                     \
1586 }
1587
1588
1589 BINOP(Add)
1590 BINOP(Borrow)
1591 BINOP(Carry)
1592 BINOP(Sub)
1593 UNOP(Minus)
1594 BINOP(Mul)
1595 BINOP(Mulh)
1596 DIVOP(Quot)
1597 DIVOP(DivMod)
1598 DIVOP(Div)
1599 DIVOP(Mod)
1600 UNOP(Abs)
1601 BINOP(And)
1602 BINOP(Or)
1603 BINOP(Eor)
1604 UNOP(Not)
1605 BINOP(Shl)
1606 BINOP(Shr)
1607 BINOP(Shrs)
1608 BINOP(Rotl)
1609 BINOP(Cmp)
1610 UNOP(Conv)
1611 UNOP(Cast)
1612
1613 int get_Div_no_remainder(const ir_node *node) {
1614         assert(is_Div(node));
1615         return node->attr.divmod.no_remainder;
1616 }
1617
1618 void set_Div_no_remainder(ir_node *node, int no_remainder) {
1619         assert(is_Div(node));
1620         node->attr.divmod.no_remainder = no_remainder;
1621 }
1622
1623 int get_Conv_strict(const ir_node *node) {
1624         assert(is_Conv(node));
1625         return node->attr.conv.strict;
1626 }
1627
1628 void set_Conv_strict(ir_node *node, int strict_flag) {
1629         assert(is_Conv(node));
1630         node->attr.conv.strict = (char)strict_flag;
1631 }
1632
1633 ir_type *
1634 get_Cast_type(ir_node *node) {
1635         assert(is_Cast(node));
1636         node->attr.cast.type = skip_tid(node->attr.cast.type);
1637         return node->attr.cast.type;
1638 }
1639
1640 void
1641 set_Cast_type(ir_node *node, ir_type *to_tp) {
1642         assert(is_Cast(node));
1643         node->attr.cast.type = to_tp;
1644 }
1645
1646
1647 /* Checks for upcast.
1648  *
1649  * Returns true if the Cast node casts a class type to a super type.
1650  */
1651 int is_Cast_upcast(ir_node *node) {
1652         ir_type *totype   = get_Cast_type(node);
1653         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1654
1655         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1656         assert(fromtype);
1657
1658         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1659                 totype   = get_pointer_points_to_type(totype);
1660                 fromtype = get_pointer_points_to_type(fromtype);
1661         }
1662
1663         assert(fromtype);
1664
1665         if (!is_Class_type(totype)) return 0;
1666         return is_SubClass_of(fromtype, totype);
1667 }
1668
1669 /* Checks for downcast.
1670  *
1671  * Returns true if the Cast node casts a class type to a sub type.
1672  */
1673 int is_Cast_downcast(ir_node *node) {
1674         ir_type *totype   = get_Cast_type(node);
1675         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1676
1677         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1678         assert(fromtype);
1679
1680         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1681                 totype   = get_pointer_points_to_type(totype);
1682                 fromtype = get_pointer_points_to_type(fromtype);
1683         }
1684
1685         assert(fromtype);
1686
1687         if (!is_Class_type(totype)) return 0;
1688         return is_SubClass_of(totype, fromtype);
1689 }
1690
1691 int
1692 (is_unop)(const ir_node *node) {
1693         return _is_unop(node);
1694 }
1695
1696 ir_node *
1697 get_unop_op(const ir_node *node) {
1698         if (node->op->opar == oparity_unary)
1699                 return get_irn_n(node, node->op->op_index);
1700
1701         assert(node->op->opar == oparity_unary);
1702         return NULL;
1703 }
1704
1705 void
1706 set_unop_op(ir_node *node, ir_node *op) {
1707         if (node->op->opar == oparity_unary)
1708                 set_irn_n(node, node->op->op_index, op);
1709
1710         assert(node->op->opar == oparity_unary);
1711 }
1712
1713 int
1714 (is_binop)(const ir_node *node) {
1715         return _is_binop(node);
1716 }
1717
1718 ir_node *
1719 get_binop_left(const ir_node *node) {
1720         assert(node->op->opar == oparity_binary);
1721         return get_irn_n(node, node->op->op_index);
1722 }
1723
1724 void
1725 set_binop_left(ir_node *node, ir_node *left) {
1726         assert(node->op->opar == oparity_binary);
1727         set_irn_n(node, node->op->op_index, left);
1728 }
1729
1730 ir_node *
1731 get_binop_right(const ir_node *node) {
1732         assert(node->op->opar == oparity_binary);
1733         return get_irn_n(node, node->op->op_index + 1);
1734 }
1735
1736 void
1737 set_binop_right(ir_node *node, ir_node *right) {
1738         assert(node->op->opar == oparity_binary);
1739         set_irn_n(node, node->op->op_index + 1, right);
1740 }
1741
1742 int is_Phi0(const ir_node *n) {
1743         assert(n);
1744
1745         return ((get_irn_op(n) == op_Phi) &&
1746                 (get_irn_arity(n) == 0) &&
1747                 (get_irg_phase_state(get_irn_irg(n)) ==  phase_building));
1748 }
1749
1750 ir_node **
1751 get_Phi_preds_arr(ir_node *node) {
1752   assert(node->op == op_Phi);
1753   return (ir_node **)&(get_irn_in(node)[1]);
1754 }
1755
1756 int
1757 get_Phi_n_preds(const ir_node *node) {
1758         assert(is_Phi(node) || is_Phi0(node));
1759         return (get_irn_arity(node));
1760 }
1761
1762 /*
1763 void set_Phi_n_preds(ir_node *node, int n_preds) {
1764         assert(node->op == op_Phi);
1765 }
1766 */
1767
1768 ir_node *
1769 get_Phi_pred(const ir_node *node, int pos) {
1770         assert(is_Phi(node) || is_Phi0(node));
1771         return get_irn_n(node, pos);
1772 }
1773
1774 void
1775 set_Phi_pred(ir_node *node, int pos, ir_node *pred) {
1776         assert(is_Phi(node) || is_Phi0(node));
1777         set_irn_n(node, pos, pred);
1778 }
1779
1780 ir_node *(get_Phi_next)(const ir_node *phi) {
1781         return _get_Phi_next(phi);
1782 }
1783
1784 void (set_Phi_next)(ir_node *phi, ir_node *next) {
1785         _set_Phi_next(phi, next);
1786 }
1787
1788 int is_memop(const ir_node *node) {
1789         ir_opcode code = get_irn_opcode(node);
1790         return (code == iro_Load || code == iro_Store);
1791 }
1792
1793 ir_node *get_memop_mem(const ir_node *node) {
1794         assert(is_memop(node));
1795         return get_irn_n(node, 0);
1796 }
1797
1798 void set_memop_mem(ir_node *node, ir_node *mem) {
1799         assert(is_memop(node));
1800         set_irn_n(node, 0, mem);
1801 }
1802
1803 ir_node *get_memop_ptr(const ir_node *node) {
1804         assert(is_memop(node));
1805         return get_irn_n(node, 1);
1806 }
1807
1808 void set_memop_ptr(ir_node *node, ir_node *ptr) {
1809         assert(is_memop(node));
1810         set_irn_n(node, 1, ptr);
1811 }
1812
1813 ir_node *
1814 get_Load_mem(const ir_node *node) {
1815         assert(is_Load(node));
1816         return get_irn_n(node, 0);
1817 }
1818
1819 void
1820 set_Load_mem(ir_node *node, ir_node *mem) {
1821         assert(is_Load(node));
1822         set_irn_n(node, 0, mem);
1823 }
1824
1825 ir_node *
1826 get_Load_ptr(const ir_node *node) {
1827         assert(is_Load(node));
1828         return get_irn_n(node, 1);
1829 }
1830
1831 void
1832 set_Load_ptr(ir_node *node, ir_node *ptr) {
1833         assert(is_Load(node));
1834         set_irn_n(node, 1, ptr);
1835 }
1836
1837 ir_mode *
1838 get_Load_mode(const ir_node *node) {
1839         assert(is_Load(node));
1840         return node->attr.load.mode;
1841 }
1842
1843 void
1844 set_Load_mode(ir_node *node, ir_mode *mode) {
1845         assert(is_Load(node));
1846         node->attr.load.mode = mode;
1847 }
1848
1849 ir_volatility
1850 get_Load_volatility(const ir_node *node) {
1851         assert(is_Load(node));
1852         return node->attr.load.volatility;
1853 }
1854
1855 void
1856 set_Load_volatility(ir_node *node, ir_volatility volatility) {
1857         assert(is_Load(node));
1858         node->attr.load.volatility = volatility;
1859 }
1860
1861 ir_align
1862 get_Load_align(const ir_node *node) {
1863         assert(is_Load(node));
1864         return node->attr.load.aligned;
1865 }
1866
1867 void
1868 set_Load_align(ir_node *node, ir_align align) {
1869         assert(is_Load(node));
1870         node->attr.load.aligned = align;
1871 }
1872
1873
1874 ir_node *
1875 get_Store_mem(const ir_node *node) {
1876         assert(is_Store(node));
1877         return get_irn_n(node, 0);
1878 }
1879
1880 void
1881 set_Store_mem(ir_node *node, ir_node *mem) {
1882         assert(is_Store(node));
1883         set_irn_n(node, 0, mem);
1884 }
1885
1886 ir_node *
1887 get_Store_ptr(const ir_node *node) {
1888         assert(is_Store(node));
1889         return get_irn_n(node, 1);
1890 }
1891
1892 void
1893 set_Store_ptr(ir_node *node, ir_node *ptr) {
1894         assert(is_Store(node));
1895         set_irn_n(node, 1, ptr);
1896 }
1897
1898 ir_node *
1899 get_Store_value(const ir_node *node) {
1900         assert(is_Store(node));
1901         return get_irn_n(node, 2);
1902 }
1903
1904 void
1905 set_Store_value(ir_node *node, ir_node *value) {
1906         assert(is_Store(node));
1907         set_irn_n(node, 2, value);
1908 }
1909
1910 ir_volatility
1911 get_Store_volatility(const ir_node *node) {
1912         assert(is_Store(node));
1913         return node->attr.store.volatility;
1914 }
1915
1916 void
1917 set_Store_volatility(ir_node *node, ir_volatility volatility) {
1918         assert(is_Store(node));
1919         node->attr.store.volatility = volatility;
1920 }
1921
1922 ir_align
1923 get_Store_align(const ir_node *node) {
1924         assert(is_Store(node));
1925         return node->attr.store.aligned;
1926 }
1927
1928 void
1929 set_Store_align(ir_node *node, ir_align align) {
1930         assert(is_Store(node));
1931         node->attr.store.aligned = align;
1932 }
1933
1934
1935 ir_node *
1936 get_Alloc_mem(const ir_node *node) {
1937         assert(is_Alloc(node));
1938         return get_irn_n(node, 0);
1939 }
1940
1941 void
1942 set_Alloc_mem(ir_node *node, ir_node *mem) {
1943         assert(is_Alloc(node));
1944         set_irn_n(node, 0, mem);
1945 }
1946
1947 ir_node *
1948 get_Alloc_size(const ir_node *node) {
1949         assert(is_Alloc(node));
1950         return get_irn_n(node, 1);
1951 }
1952
1953 void
1954 set_Alloc_size(ir_node *node, ir_node *size) {
1955         assert(is_Alloc(node));
1956         set_irn_n(node, 1, size);
1957 }
1958
1959 ir_type *
1960 get_Alloc_type(ir_node *node) {
1961         assert(is_Alloc(node));
1962         return node->attr.alloc.type = skip_tid(node->attr.alloc.type);
1963 }
1964
1965 void
1966 set_Alloc_type(ir_node *node, ir_type *tp) {
1967         assert(is_Alloc(node));
1968         node->attr.alloc.type = tp;
1969 }
1970
1971 ir_where_alloc
1972 get_Alloc_where(const ir_node *node) {
1973         assert(is_Alloc(node));
1974         return node->attr.alloc.where;
1975 }
1976
1977 void
1978 set_Alloc_where(ir_node *node, ir_where_alloc where) {
1979         assert(is_Alloc(node));
1980         node->attr.alloc.where = where;
1981 }
1982
1983
1984 ir_node *
1985 get_Free_mem(const ir_node *node) {
1986         assert(is_Free(node));
1987         return get_irn_n(node, 0);
1988 }
1989
1990 void
1991 set_Free_mem(ir_node *node, ir_node *mem) {
1992         assert(is_Free(node));
1993         set_irn_n(node, 0, mem);
1994 }
1995
1996 ir_node *
1997 get_Free_ptr(const ir_node *node) {
1998         assert(is_Free(node));
1999         return get_irn_n(node, 1);
2000 }
2001
2002 void
2003 set_Free_ptr(ir_node *node, ir_node *ptr) {
2004         assert(is_Free(node));
2005         set_irn_n(node, 1, ptr);
2006 }
2007
2008 ir_node *
2009 get_Free_size(const ir_node *node) {
2010         assert(is_Free(node));
2011         return get_irn_n(node, 2);
2012 }
2013
2014 void
2015 set_Free_size(ir_node *node, ir_node *size) {
2016         assert(is_Free(node));
2017         set_irn_n(node, 2, size);
2018 }
2019
2020 ir_type *
2021 get_Free_type(ir_node *node) {
2022         assert(is_Free(node));
2023         return node->attr.free.type = skip_tid(node->attr.free.type);
2024 }
2025
2026 void
2027 set_Free_type(ir_node *node, ir_type *tp) {
2028         assert(is_Free(node));
2029         node->attr.free.type = tp;
2030 }
2031
2032 ir_where_alloc
2033 get_Free_where(const ir_node *node) {
2034         assert(is_Free(node));
2035         return node->attr.free.where;
2036 }
2037
2038 void
2039 set_Free_where(ir_node *node, ir_where_alloc where) {
2040         assert(is_Free(node));
2041         node->attr.free.where = where;
2042 }
2043
2044 ir_node **get_Sync_preds_arr(ir_node *node) {
2045         assert(is_Sync(node));
2046         return (ir_node **)&(get_irn_in(node)[1]);
2047 }
2048
2049 int get_Sync_n_preds(const ir_node *node) {
2050         assert(is_Sync(node));
2051         return (get_irn_arity(node));
2052 }
2053
2054 /*
2055 void set_Sync_n_preds(ir_node *node, int n_preds) {
2056         assert(is_Sync(node));
2057 }
2058 */
2059
2060 ir_node *get_Sync_pred(const ir_node *node, int pos) {
2061         assert(is_Sync(node));
2062         return get_irn_n(node, pos);
2063 }
2064
2065 void set_Sync_pred(ir_node *node, int pos, ir_node *pred) {
2066         assert(is_Sync(node));
2067         set_irn_n(node, pos, pred);
2068 }
2069
2070 /* Add a new Sync predecessor */
2071 void add_Sync_pred(ir_node *node, ir_node *pred) {
2072         assert(is_Sync(node));
2073         add_irn_n(node, pred);
2074 }
2075
2076 /* Returns the source language type of a Proj node. */
2077 ir_type *get_Proj_type(ir_node *n) {
2078         ir_type *tp   = firm_unknown_type;
2079         ir_node *pred = get_Proj_pred(n);
2080
2081         switch (get_irn_opcode(pred)) {
2082         case iro_Proj: {
2083                 ir_node *pred_pred;
2084                 /* Deal with Start / Call here: we need to know the Proj Nr. */
2085                 assert(get_irn_mode(pred) == mode_T);
2086                 pred_pred = get_Proj_pred(pred);
2087
2088                 if (is_Start(pred_pred))  {
2089                         ir_type *mtp = get_entity_type(get_irg_entity(get_irn_irg(pred_pred)));
2090                         tp = get_method_param_type(mtp, get_Proj_proj(n));
2091                 } else if (is_Call(pred_pred)) {
2092                         ir_type *mtp = get_Call_type(pred_pred);
2093                         tp = get_method_res_type(mtp, get_Proj_proj(n));
2094                 }
2095         } break;
2096         case iro_Start: break;
2097         case iro_Call: break;
2098         case iro_Load: {
2099                 ir_node *a = get_Load_ptr(pred);
2100                 if (is_Sel(a))
2101                         tp = get_entity_type(get_Sel_entity(a));
2102         } break;
2103         default:
2104                 break;
2105         }
2106         return tp;
2107 }
2108
2109 ir_node *
2110 get_Proj_pred(const ir_node *node) {
2111         assert(is_Proj(node));
2112         return get_irn_n(node, 0);
2113 }
2114
2115 void
2116 set_Proj_pred(ir_node *node, ir_node *pred) {
2117         assert(is_Proj(node));
2118         set_irn_n(node, 0, pred);
2119 }
2120
2121 long
2122 get_Proj_proj(const ir_node *node) {
2123 #ifdef INTERPROCEDURAL_VIEW
2124         ir_opcode code = get_irn_opcode(node);
2125
2126         if (code == iro_Proj) {
2127                 return node->attr.proj;
2128         }
2129         else {
2130                 assert(code == iro_Filter);
2131                 return node->attr.filter.proj;
2132         }
2133 #else
2134         assert(is_Proj(node));
2135         return node->attr.proj;
2136 #endif /* INTERPROCEDURAL_VIEW */
2137 }
2138
2139 void
2140 set_Proj_proj(ir_node *node, long proj) {
2141 #ifdef INTERPROCEDURAL_VIEW
2142         ir_opcode code = get_irn_opcode(node);
2143
2144         if (code == iro_Proj) {
2145                 node->attr.proj = proj;
2146         }
2147         else {
2148                 assert(code == iro_Filter);
2149                 node->attr.filter.proj = proj;
2150         }
2151 #else
2152         assert(is_Proj(node));
2153         node->attr.proj = proj;
2154 #endif /* INTERPROCEDURAL_VIEW */
2155 }
2156
2157 /* Returns non-zero if a node is a routine parameter. */
2158 int (is_arg_Proj)(const ir_node *node) {
2159         return _is_arg_Proj(node);
2160 }
2161
2162 ir_node **
2163 get_Tuple_preds_arr(ir_node *node) {
2164         assert(is_Tuple(node));
2165         return (ir_node **)&(get_irn_in(node)[1]);
2166 }
2167
2168 int
2169 get_Tuple_n_preds(const ir_node *node) {
2170         assert(is_Tuple(node));
2171         return get_irn_arity(node);
2172 }
2173
2174 /*
2175 void
2176 set_Tuple_n_preds(ir_node *node, int n_preds) {
2177         assert(is_Tuple(node));
2178 }
2179 */
2180
2181 ir_node *
2182 get_Tuple_pred(const ir_node *node, int pos) {
2183   assert(is_Tuple(node));
2184   return get_irn_n(node, pos);
2185 }
2186
2187 void
2188 set_Tuple_pred(ir_node *node, int pos, ir_node *pred) {
2189         assert(is_Tuple(node));
2190         set_irn_n(node, pos, pred);
2191 }
2192
2193 ir_node *
2194 get_Id_pred(const ir_node *node) {
2195         assert(is_Id(node));
2196         return get_irn_n(node, 0);
2197 }
2198
2199 void
2200 set_Id_pred(ir_node *node, ir_node *pred) {
2201         assert(is_Id(node));
2202         set_irn_n(node, 0, pred);
2203 }
2204
2205 ir_node *get_Confirm_value(const ir_node *node) {
2206         assert(is_Confirm(node));
2207         return get_irn_n(node, 0);
2208 }
2209
2210 void set_Confirm_value(ir_node *node, ir_node *value) {
2211         assert(is_Confirm(node));
2212         set_irn_n(node, 0, value);
2213 }
2214
2215 ir_node *get_Confirm_bound(const ir_node *node) {
2216         assert(is_Confirm(node));
2217         return get_irn_n(node, 1);
2218 }
2219
2220 void set_Confirm_bound(ir_node *node, ir_node *bound) {
2221         assert(is_Confirm(node));
2222         set_irn_n(node, 0, bound);
2223 }
2224
2225 pn_Cmp get_Confirm_cmp(const ir_node *node) {
2226         assert(is_Confirm(node));
2227         return node->attr.confirm.cmp;
2228 }
2229
2230 void set_Confirm_cmp(ir_node *node, pn_Cmp cmp) {
2231         assert(is_Confirm(node));
2232         node->attr.confirm.cmp = cmp;
2233 }
2234
2235 ir_node *
2236 get_Filter_pred(ir_node *node) {
2237         assert(is_Filter(node));
2238         return node->in[1];
2239 }
2240
2241 void
2242 set_Filter_pred(ir_node *node, ir_node *pred) {
2243         assert(is_Filter(node));
2244         node->in[1] = pred;
2245 }
2246
2247 long
2248 get_Filter_proj(ir_node *node) {
2249         assert(is_Filter(node));
2250         return node->attr.filter.proj;
2251 }
2252
2253 void
2254 set_Filter_proj(ir_node *node, long proj) {
2255         assert(is_Filter(node));
2256         node->attr.filter.proj = proj;
2257 }
2258
2259 /* Don't use get_irn_arity, get_irn_n in implementation as access
2260    shall work independent of view!!! */
2261 void set_Filter_cg_pred_arr(ir_node *node, int arity, ir_node ** in) {
2262         assert(is_Filter(node));
2263         if (node->attr.filter.in_cg == NULL || arity != ARR_LEN(node->attr.filter.in_cg) - 1) {
2264                 ir_graph *irg = get_irn_irg(node);
2265                 node->attr.filter.in_cg = NEW_ARR_D(ir_node *, current_ir_graph->obst, arity + 1);
2266                 node->attr.filter.backedge = new_backedge_arr(irg->obst, arity);
2267                 node->attr.filter.in_cg[0] = node->in[0];
2268         }
2269         memcpy(node->attr.filter.in_cg + 1, in, sizeof(ir_node *) * arity);
2270 }
2271
2272 void set_Filter_cg_pred(ir_node * node, int pos, ir_node * pred) {
2273         assert(is_Filter(node) && node->attr.filter.in_cg &&
2274                0 <= pos && pos < ARR_LEN(node->attr.filter.in_cg) - 1);
2275         node->attr.filter.in_cg[pos + 1] = pred;
2276 }
2277
2278 int get_Filter_n_cg_preds(ir_node *node) {
2279         assert(is_Filter(node) && node->attr.filter.in_cg);
2280         return (ARR_LEN(node->attr.filter.in_cg) - 1);
2281 }
2282
2283 ir_node *get_Filter_cg_pred(ir_node *node, int pos) {
2284         int arity;
2285         assert(is_Filter(node) && node->attr.filter.in_cg &&
2286                0 <= pos);
2287         arity = ARR_LEN(node->attr.filter.in_cg);
2288         assert(pos < arity - 1);
2289         return node->attr.filter.in_cg[pos + 1];
2290 }
2291
2292 /* Mux support */
2293 ir_node *get_Mux_sel(const ir_node *node) {
2294         assert(is_Mux(node));
2295         return node->in[1];
2296 }
2297
2298 void set_Mux_sel(ir_node *node, ir_node *sel) {
2299         assert(is_Mux(node));
2300         node->in[1] = sel;
2301 }
2302
2303 ir_node *get_Mux_false(const ir_node *node) {
2304         assert(is_Mux(node));
2305         return node->in[2];
2306 }
2307
2308 void set_Mux_false(ir_node *node, ir_node *ir_false) {
2309         assert(is_Mux(node));
2310         node->in[2] = ir_false;
2311 }
2312
2313 ir_node *get_Mux_true(const ir_node *node) {
2314         assert(is_Mux(node));
2315         return node->in[3];
2316 }
2317
2318 void set_Mux_true(ir_node *node, ir_node *ir_true) {
2319         assert(is_Mux(node));
2320         node->in[3] = ir_true;
2321 }
2322
2323 /* CopyB support */
2324 ir_node *get_CopyB_mem(const ir_node *node) {
2325         assert(is_CopyB(node));
2326         return get_irn_n(node, 0);
2327 }
2328
2329 void set_CopyB_mem(ir_node *node, ir_node *mem) {
2330         assert(node->op == op_CopyB);
2331         set_irn_n(node, 0, mem);
2332 }
2333
2334 ir_node *get_CopyB_dst(const ir_node *node) {
2335         assert(is_CopyB(node));
2336         return get_irn_n(node, 1);
2337 }
2338
2339 void set_CopyB_dst(ir_node *node, ir_node *dst) {
2340         assert(is_CopyB(node));
2341         set_irn_n(node, 1, dst);
2342 }
2343
2344 ir_node *get_CopyB_src(const ir_node *node) {
2345   assert(is_CopyB(node));
2346   return get_irn_n(node, 2);
2347 }
2348
2349 void set_CopyB_src(ir_node *node, ir_node *src) {
2350         assert(is_CopyB(node));
2351         set_irn_n(node, 2, src);
2352 }
2353
2354 ir_type *get_CopyB_type(ir_node *node) {
2355         assert(is_CopyB(node));
2356         return node->attr.copyb.type = skip_tid(node->attr.copyb.type);
2357 }
2358
2359 void set_CopyB_type(ir_node *node, ir_type *data_type) {
2360         assert(is_CopyB(node) && data_type);
2361         node->attr.copyb.type = data_type;
2362 }
2363
2364
2365 ir_type *
2366 get_InstOf_type(ir_node *node) {
2367         assert(node->op == op_InstOf);
2368         return node->attr.instof.type = skip_tid(node->attr.instof.type);
2369 }
2370
2371 void
2372 set_InstOf_type(ir_node *node, ir_type *type) {
2373         assert(node->op == op_InstOf);
2374         node->attr.instof.type = type;
2375 }
2376
2377 ir_node *
2378 get_InstOf_store(const ir_node *node) {
2379         assert(node->op == op_InstOf);
2380         return get_irn_n(node, 0);
2381 }
2382
2383 void
2384 set_InstOf_store(ir_node *node, ir_node *obj) {
2385         assert(node->op == op_InstOf);
2386         set_irn_n(node, 0, obj);
2387 }
2388
2389 ir_node *
2390 get_InstOf_obj(const ir_node *node) {
2391         assert(node->op == op_InstOf);
2392         return get_irn_n(node, 1);
2393 }
2394
2395 void
2396 set_InstOf_obj(ir_node *node, ir_node *obj) {
2397         assert(node->op == op_InstOf);
2398         set_irn_n(node, 1, obj);
2399 }
2400
2401 /* Returns the memory input of a Raise operation. */
2402 ir_node *
2403 get_Raise_mem(const ir_node *node) {
2404         assert(is_Raise(node));
2405         return get_irn_n(node, 0);
2406 }
2407
2408 void
2409 set_Raise_mem(ir_node *node, ir_node *mem) {
2410         assert(is_Raise(node));
2411         set_irn_n(node, 0, mem);
2412 }
2413
2414 ir_node *
2415 get_Raise_exo_ptr(const ir_node *node) {
2416         assert(is_Raise(node));
2417         return get_irn_n(node, 1);
2418 }
2419
2420 void
2421 set_Raise_exo_ptr(ir_node *node, ir_node *exo_ptr) {
2422         assert(is_Raise(node));
2423         set_irn_n(node, 1, exo_ptr);
2424 }
2425
2426 /* Bound support */
2427
2428 /* Returns the memory input of a Bound operation. */
2429 ir_node *get_Bound_mem(const ir_node *bound) {
2430         assert(is_Bound(bound));
2431         return get_irn_n(bound, 0);
2432 }
2433
2434 void set_Bound_mem(ir_node *bound, ir_node *mem) {
2435         assert(is_Bound(bound));
2436         set_irn_n(bound, 0, mem);
2437 }
2438
2439 /* Returns the index input of a Bound operation. */
2440 ir_node *get_Bound_index(const ir_node *bound) {
2441         assert(is_Bound(bound));
2442         return get_irn_n(bound, 1);
2443 }
2444
2445 void set_Bound_index(ir_node *bound, ir_node *idx) {
2446         assert(is_Bound(bound));
2447         set_irn_n(bound, 1, idx);
2448 }
2449
2450 /* Returns the lower bound input of a Bound operation. */
2451 ir_node *get_Bound_lower(const ir_node *bound) {
2452         assert(is_Bound(bound));
2453         return get_irn_n(bound, 2);
2454 }
2455
2456 void set_Bound_lower(ir_node *bound, ir_node *lower) {
2457         assert(is_Bound(bound));
2458         set_irn_n(bound, 2, lower);
2459 }
2460
2461 /* Returns the upper bound input of a Bound operation. */
2462 ir_node *get_Bound_upper(const ir_node *bound) {
2463         assert(is_Bound(bound));
2464         return get_irn_n(bound, 3);
2465 }
2466
2467 void set_Bound_upper(ir_node *bound, ir_node *upper) {
2468         assert(is_Bound(bound));
2469         set_irn_n(bound, 3, upper);
2470 }
2471
2472 /* Return the operand of a Pin node. */
2473 ir_node *get_Pin_op(const ir_node *pin) {
2474         assert(is_Pin(pin));
2475         return get_irn_n(pin, 0);
2476 }
2477
2478 void set_Pin_op(ir_node *pin, ir_node *node) {
2479         assert(is_Pin(pin));
2480         set_irn_n(pin, 0, node);
2481 }
2482
2483 /* Return the assembler text of an ASM pseudo node. */
2484 ident *get_ASM_text(const ir_node *node) {
2485         assert(is_ASM(node));
2486         return node->attr.assem.asm_text;
2487 }
2488
2489 /* Return the number of input constraints for an ASM node. */
2490 int get_ASM_n_input_constraints(const ir_node *node) {
2491         assert(is_ASM(node));
2492         return ARR_LEN(node->attr.assem.inputs);
2493 }
2494
2495 /* Return the input constraints for an ASM node. This is a flexible array. */
2496 const ir_asm_constraint *get_ASM_input_constraints(const ir_node *node) {
2497         assert(is_ASM(node));
2498         return node->attr.assem.inputs;
2499 }
2500
2501 /* Return the number of output constraints for an ASM node.  */
2502 int get_ASM_n_output_constraints(const ir_node *node) {
2503         assert(is_ASM(node));
2504         return ARR_LEN(node->attr.assem.outputs);
2505 }
2506
2507 /* Return the output constraints for an ASM node. */
2508 const ir_asm_constraint *get_ASM_output_constraints(const ir_node *node) {
2509         assert(is_ASM(node));
2510         return node->attr.assem.outputs;
2511 }
2512
2513 /* Return the number of clobbered registers for an ASM node.  */
2514 int get_ASM_n_clobbers(const ir_node *node) {
2515         assert(is_ASM(node));
2516         return ARR_LEN(node->attr.assem.clobber);
2517 }
2518
2519 /* Return the list of clobbered registers for an ASM node. */
2520 ident **get_ASM_clobbers(const ir_node *node) {
2521         assert(is_ASM(node));
2522         return node->attr.assem.clobber;
2523 }
2524
2525 /* returns the graph of a node */
2526 ir_graph *
2527 get_irn_irg(const ir_node *node) {
2528         /*
2529          * Do not use get_nodes_Block() here, because this
2530          * will check the pinned state.
2531          * However even a 'wrong' block is always in the proper
2532          * irg.
2533          */
2534         if (! is_Block(node))
2535                 node = get_irn_n(node, -1);
2536         if (is_Bad(node))  /* sometimes bad is predecessor of nodes instead of block: in case of optimization */
2537                 node = get_irn_n(node, -1);
2538         assert(is_Block(node));
2539         return node->attr.block.irg;
2540 }
2541
2542
2543 /*----------------------------------------------------------------*/
2544 /*  Auxiliary routines                                            */
2545 /*----------------------------------------------------------------*/
2546
2547 ir_node *
2548 skip_Proj(ir_node *node) {
2549         /* don't assert node !!! */
2550         if (node == NULL)
2551                 return NULL;
2552
2553         if (is_Proj(node))
2554                 node = get_Proj_pred(node);
2555
2556         return node;
2557 }
2558
2559 const ir_node *
2560 skip_Proj_const(const ir_node *node) {
2561         /* don't assert node !!! */
2562         if (node == NULL)
2563                 return NULL;
2564
2565         if (is_Proj(node))
2566                 node = get_Proj_pred(node);
2567
2568         return node;
2569 }
2570
2571 ir_node *
2572 skip_Tuple(ir_node *node) {
2573   ir_node *pred;
2574   ir_op   *op;
2575
2576 restart:
2577         if (is_Proj(node)) {
2578             pred = get_Proj_pred(node);
2579             op   = get_irn_op(pred);
2580
2581                 /*
2582                  * Looks strange but calls get_irn_op() only once
2583                  * in most often cases.
2584                  */
2585                 if (op == op_Proj) { /* nested Tuple ? */
2586                     pred = skip_Tuple(pred);
2587
2588                         if (is_Tuple(pred)) {
2589                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
2590                                 goto restart;
2591                         }
2592                 } else if (op == op_Tuple) {
2593                         node = get_Tuple_pred(pred, get_Proj_proj(node));
2594                         goto restart;
2595                 }
2596         }
2597         return node;
2598 }
2599
2600 /* returns operand of node if node is a Cast */
2601 ir_node *skip_Cast(ir_node *node) {
2602         if (is_Cast(node))
2603                 return get_Cast_op(node);
2604         return node;
2605 }
2606
2607 /* returns operand of node if node is a Cast */
2608 const ir_node *skip_Cast_const(const ir_node *node) {
2609         if (is_Cast(node))
2610                 return get_Cast_op(node);
2611         return node;
2612 }
2613
2614 /* returns operand of node if node is a Pin */
2615 ir_node *skip_Pin(ir_node *node) {
2616         if (is_Pin(node))
2617                 return get_Pin_op(node);
2618         return node;
2619 }
2620
2621 /* returns operand of node if node is a Confirm */
2622 ir_node *skip_Confirm(ir_node *node) {
2623         if (is_Confirm(node))
2624                 return get_Confirm_value(node);
2625         return node;
2626 }
2627
2628 /* skip all high-level ops */
2629 ir_node *skip_HighLevel_ops(ir_node *node) {
2630         while (is_op_highlevel(get_irn_op(node))) {
2631                 node = get_irn_n(node, 0);
2632         }
2633         return node;
2634 }
2635
2636
2637 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
2638  * than any other approach, as Id chains are resolved and all point to the real node, or
2639  * all id's are self loops.
2640  *
2641  * Note: This function takes 10% of mostly ANY the compiler run, so it's
2642  * a little bit "hand optimized".
2643  *
2644  * Moreover, it CANNOT be switched off using get_opt_normalize() ...
2645  */
2646 ir_node *
2647 skip_Id(ir_node *node) {
2648         ir_node *pred;
2649         /* don't assert node !!! */
2650
2651         if (!node || (node->op != op_Id)) return node;
2652
2653         /* Don't use get_Id_pred():  We get into an endless loop for
2654            self-referencing Ids. */
2655         pred = node->in[0+1];
2656
2657         if (pred->op != op_Id) return pred;
2658
2659         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
2660                 ir_node *rem_pred, *res;
2661
2662                 if (pred->op != op_Id) return pred; /* shortcut */
2663                 rem_pred = pred;
2664
2665                 assert(get_irn_arity (node) > 0);
2666
2667                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
2668                 res = skip_Id(rem_pred);
2669                 if (res->op == op_Id) /* self-loop */ return node;
2670
2671                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
2672                 return res;
2673         } else {
2674                 return node;
2675         }
2676 }
2677
2678 void skip_Id_and_store(ir_node **node) {
2679         ir_node *n = *node;
2680
2681         if (!n || (n->op != op_Id)) return;
2682
2683         /* Don't use get_Id_pred():  We get into an endless loop for
2684            self-referencing Ids. */
2685         *node = skip_Id(n);
2686 }
2687
2688 int
2689 (is_strictConv)(const ir_node *node) {
2690         return _is_strictConv(node);
2691 }
2692
2693 int
2694 (is_no_Block)(const ir_node *node) {
2695         return _is_no_Block(node);
2696 }
2697
2698 /* Returns true if node is a SymConst node with kind symconst_addr_ent. */
2699 int
2700 (is_SymConst_addr_ent)(const ir_node *node) {
2701         return _is_SymConst_addr_ent(node);
2702 }
2703
2704 /* Returns true if the operation manipulates control flow. */
2705 int is_cfop(const ir_node *node) {
2706         return is_op_cfopcode(get_irn_op(node));
2707 }
2708
2709 /* Returns true if the operation manipulates interprocedural control flow:
2710    CallBegin, EndReg, EndExcept */
2711 int is_ip_cfop(const ir_node *node) {
2712         return is_ip_cfopcode(get_irn_op(node));
2713 }
2714
2715 /* Returns true if the operation can change the control flow because
2716    of an exception. */
2717 int
2718 is_fragile_op(const ir_node *node) {
2719         return is_op_fragile(get_irn_op(node));
2720 }
2721
2722 /* Returns the memory operand of fragile operations. */
2723 ir_node *get_fragile_op_mem(ir_node *node) {
2724         assert(node && is_fragile_op(node));
2725
2726         switch (get_irn_opcode(node)) {
2727         case iro_Call  :
2728         case iro_Quot  :
2729         case iro_DivMod:
2730         case iro_Div   :
2731         case iro_Mod   :
2732         case iro_Load  :
2733         case iro_Store :
2734         case iro_Alloc :
2735         case iro_Bound :
2736         case iro_CopyB :
2737                 return get_irn_n(node, pn_Generic_M_regular);
2738         case iro_Bad   :
2739         case iro_Unknown:
2740                 return node;
2741         default: ;
2742                 assert(0 && "should not be reached");
2743                 return NULL;
2744         }
2745 }
2746
2747 /* Returns the result mode of a Div operation. */
2748 ir_mode *get_divop_resmod(const ir_node *node) {
2749         switch (get_irn_opcode(node)) {
2750         case iro_Quot  : return get_Quot_resmode(node);
2751         case iro_DivMod: return get_DivMod_resmode(node);
2752         case iro_Div   : return get_Div_resmode(node);
2753         case iro_Mod   : return get_Mod_resmode(node);
2754         default: ;
2755                 assert(0 && "should not be reached");
2756                 return NULL;
2757         }
2758 }
2759
2760 /* Returns true if the operation is a forking control flow operation. */
2761 int (is_irn_forking)(const ir_node *node) {
2762         return _is_irn_forking(node);
2763 }
2764
2765 /* Return the type associated with the value produced by n
2766  * if the node remarks this type as it is the case for
2767  * Cast, Const, SymConst and some Proj nodes. */
2768 ir_type *(get_irn_type)(ir_node *node) {
2769         return _get_irn_type(node);
2770 }
2771
2772 /* Return the type attribute of a node n (SymConst, Call, Alloc, Free,
2773    Cast) or NULL.*/
2774 ir_type *(get_irn_type_attr)(ir_node *node) {
2775         return _get_irn_type_attr(node);
2776 }
2777
2778 /* Return the entity attribute of a node n (SymConst, Sel) or NULL. */
2779 ir_entity *(get_irn_entity_attr)(ir_node *node) {
2780         return _get_irn_entity_attr(node);
2781 }
2782
2783 /* Returns non-zero for constant-like nodes. */
2784 int (is_irn_constlike)(const ir_node *node) {
2785         return _is_irn_constlike(node);
2786 }
2787
2788 /*
2789  * Returns non-zero for nodes that are allowed to have keep-alives and
2790  * are neither Block nor PhiM.
2791  */
2792 int (is_irn_keep)(const ir_node *node) {
2793         return _is_irn_keep(node);
2794 }
2795
2796 /*
2797  * Returns non-zero for nodes that are always placed in the start block.
2798  */
2799 int (is_irn_start_block_placed)(const ir_node *node) {
2800         return _is_irn_start_block_placed(node);
2801 }
2802
2803 /* Returns non-zero for nodes that are machine operations. */
2804 int (is_irn_machine_op)(const ir_node *node) {
2805         return _is_irn_machine_op(node);
2806 }
2807
2808 /* Returns non-zero for nodes that are machine operands. */
2809 int (is_irn_machine_operand)(const ir_node *node) {
2810         return _is_irn_machine_operand(node);
2811 }
2812
2813 /* Returns non-zero for nodes that have the n'th user machine flag set. */
2814 int (is_irn_machine_user)(const ir_node *node, unsigned n) {
2815         return _is_irn_machine_user(node, n);
2816 }
2817
2818
2819 /* Gets the string representation of the jump prediction .*/
2820 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred) {
2821 #define X(a)    case a: return #a;
2822         switch (pred) {
2823                 X(COND_JMP_PRED_NONE);
2824                 X(COND_JMP_PRED_TRUE);
2825                 X(COND_JMP_PRED_FALSE);
2826         }
2827         return "<unknown>";
2828 #undef X
2829 }
2830
2831 /* Returns the conditional jump prediction of a Cond node. */
2832 cond_jmp_predicate (get_Cond_jmp_pred)(const ir_node *cond) {
2833         return _get_Cond_jmp_pred(cond);
2834 }
2835
2836 /* Sets a new conditional jump prediction. */
2837 void (set_Cond_jmp_pred)(ir_node *cond, cond_jmp_predicate pred) {
2838         _set_Cond_jmp_pred(cond, pred);
2839 }
2840
2841 /** the get_type operation must be always implemented and return a firm type */
2842 static ir_type *get_Default_type(ir_node *n) {
2843         (void) n;
2844         return get_unknown_type();
2845 }
2846
2847 /* Sets the get_type operation for an ir_op_ops. */
2848 ir_op_ops *firm_set_default_get_type(ir_opcode code, ir_op_ops *ops) {
2849         switch (code) {
2850         case iro_Const:    ops->get_type = get_Const_type; break;
2851         case iro_SymConst: ops->get_type = get_SymConst_value_type; break;
2852         case iro_Cast:     ops->get_type = get_Cast_type; break;
2853         case iro_Proj:     ops->get_type = get_Proj_type; break;
2854         default:
2855                 /* not allowed to be NULL */
2856                 if (! ops->get_type)
2857                         ops->get_type = get_Default_type;
2858                 break;
2859         }
2860         return ops;
2861 }
2862
2863 /** Return the attribute type of a SymConst node if exists */
2864 static ir_type *get_SymConst_attr_type(ir_node *self) {
2865         symconst_kind kind = get_SymConst_kind(self);
2866         if (SYMCONST_HAS_TYPE(kind))
2867                 return get_SymConst_type(self);
2868         return NULL;
2869 }
2870
2871 /** Return the attribute entity of a SymConst node if exists */
2872 static ir_entity *get_SymConst_attr_entity(ir_node *self) {
2873         symconst_kind kind = get_SymConst_kind(self);
2874         if (SYMCONST_HAS_ENT(kind))
2875                 return get_SymConst_entity(self);
2876         return NULL;
2877 }
2878
2879 /** the get_type_attr operation must be always implemented */
2880 static ir_type *get_Null_type(ir_node *n) {
2881         (void) n;
2882         return firm_unknown_type;
2883 }
2884
2885 /* Sets the get_type operation for an ir_op_ops. */
2886 ir_op_ops *firm_set_default_get_type_attr(ir_opcode code, ir_op_ops *ops) {
2887         switch (code) {
2888         case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
2889         case iro_Call:     ops->get_type_attr = get_Call_type; break;
2890         case iro_Alloc:    ops->get_type_attr = get_Alloc_type; break;
2891         case iro_Free:     ops->get_type_attr = get_Free_type; break;
2892         case iro_Cast:     ops->get_type_attr = get_Cast_type; break;
2893         default:
2894                 /* not allowed to be NULL */
2895                 if (! ops->get_type_attr)
2896                         ops->get_type_attr = get_Null_type;
2897                 break;
2898         }
2899         return ops;
2900 }
2901
2902 /** the get_entity_attr operation must be always implemented */
2903 static ir_entity *get_Null_ent(ir_node *n) {
2904         (void) n;
2905         return NULL;
2906 }
2907
2908 /* Sets the get_type operation for an ir_op_ops. */
2909 ir_op_ops *firm_set_default_get_entity_attr(ir_opcode code, ir_op_ops *ops) {
2910         switch (code) {
2911         case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
2912         case iro_Sel:      ops->get_entity_attr = _get_Sel_entity; break;
2913         default:
2914                 /* not allowed to be NULL */
2915                 if (! ops->get_entity_attr)
2916                         ops->get_entity_attr = get_Null_ent;
2917                 break;
2918         }
2919         return ops;
2920 }
2921
2922 /* Sets the debug information of a node. */
2923 void (set_irn_dbg_info)(ir_node *n, dbg_info *db) {
2924         _set_irn_dbg_info(n, db);
2925 }
2926
2927 /**
2928  * Returns the debug information of an node.
2929  *
2930  * @param n   The node.
2931  */
2932 dbg_info *(get_irn_dbg_info)(const ir_node *n) {
2933         return _get_irn_dbg_info(n);
2934 }
2935
2936 /* checks whether a node represents a global address */
2937 int is_Global(const ir_node *node) {
2938         return is_SymConst_addr_ent(node);
2939 }
2940
2941 /* returns the entity of a global address */
2942 ir_entity *get_Global_entity(const ir_node *node) {
2943         return get_SymConst_entity(node);
2944 }
2945
2946 /*
2947  * Calculate a hash value of a node.
2948  */
2949 unsigned firm_default_hash(const ir_node *node) {
2950         unsigned h;
2951         int i, irn_arity;
2952
2953         /* hash table value = 9*(9*(9*(9*(9*arity+in[0])+in[1])+ ...)+mode)+code */
2954         h = irn_arity = get_irn_intra_arity(node);
2955
2956         /* consider all in nodes... except the block if not a control flow. */
2957         for (i = is_cfop(node) ? -1 : 0;  i < irn_arity;  ++i) {
2958                 h = 9*h + HASH_PTR(get_irn_intra_n(node, i));
2959         }
2960
2961         /* ...mode,... */
2962         h = 9*h + HASH_PTR(get_irn_mode(node));
2963         /* ...and code */
2964         h = 9*h + HASH_PTR(get_irn_op(node));
2965
2966         return h;
2967 }  /* firm_default_hash */
2968
2969 /* include generated code */
2970 #include "gen_irnode.c.inl"