37dd01d394b3bc9cf915be3ce57a912ed300545f
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  */
25 #include "config.h"
26
27 #include <string.h>
28
29 #include "pset_new.h"
30 #include "ident.h"
31 #include "irnode_t.h"
32 #include "irgraph_t.h"
33 #include "irmode_t.h"
34 #include "irbackedge_t.h"
35 #include "irdump.h"
36 #include "irop_t.h"
37 #include "irprog_t.h"
38 #include "iredgekinds.h"
39 #include "iredges_t.h"
40 #include "ircons.h"
41 #include "error.h"
42
43 #include "irhooks.h"
44 #include "irtools.h"
45 #include "util.h"
46
47 #include "beinfo.h"
48
49 /* some constants fixing the positions of nodes predecessors
50    in the in array */
51 #define CALL_PARAM_OFFSET     (n_Call_max+1)
52 #define BUILTIN_PARAM_OFFSET  (n_Builtin_max+1)
53 #define SEL_INDEX_OFFSET      (n_Sel_max+1)
54 #define RETURN_RESULT_OFFSET  (n_Return_max+1)
55 #define END_KEEPALIVE_OFFSET  0
56
57 static const char *relation_names [] = {
58         "false",
59         "equal",
60         "less",
61         "less_equal",
62         "greater",
63         "greater_equal",
64         "less_greater",
65         "less_equal_greater",
66         "unordered",
67         "unordered_equal",
68         "unordered_less",
69         "unordered_less_equal",
70         "unordered_greater",
71         "unordered_greater_equal",
72         "not_equal",
73         "true"
74 };
75
76 const char *get_relation_string(ir_relation relation)
77 {
78         assert(relation < (ir_relation)ARRAY_SIZE(relation_names));
79         return relation_names[relation];
80 }
81
82 ir_relation get_negated_relation(ir_relation relation)
83 {
84         return relation ^ ir_relation_true;
85 }
86
87 ir_relation get_inversed_relation(ir_relation relation)
88 {
89         ir_relation code    = relation & ~(ir_relation_less|ir_relation_greater);
90         bool        less    = relation & ir_relation_less;
91         bool        greater = relation & ir_relation_greater;
92         code |= (less ? ir_relation_greater : 0) | (greater ? ir_relation_less : 0);
93         return code;
94 }
95
96 /**
97  * Indicates, whether additional data can be registered to ir nodes.
98  * If set to 1, this is not possible anymore.
99  */
100 static int forbid_new_data = 0;
101
102 /**
103  * The amount of additional space for custom data to be allocated upon
104  * creating a new node.
105  */
106 unsigned firm_add_node_size = 0;
107
108
109 /* register new space for every node */
110 unsigned firm_register_additional_node_data(unsigned size)
111 {
112         assert(!forbid_new_data && "Too late to register additional node data");
113
114         if (forbid_new_data)
115                 return 0;
116
117         return firm_add_node_size += size;
118 }
119
120
121 void init_irnode(void)
122 {
123         /* Forbid the addition of new data to an ir node. */
124         forbid_new_data = 1;
125 }
126
127 struct struct_align {
128         char c;
129         struct s {
130                 int i;
131                 float f;
132                 double d;
133         } s;
134 };
135
136 /*
137  * irnode constructor.
138  * Create a new irnode in irg, with an op, mode, arity and
139  * some incoming irnodes.
140  * If arity is negative, a node with a dynamic array is created.
141  */
142 ir_node *new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op,
143                      ir_mode *mode, int arity, ir_node *const *in)
144 {
145         ir_node *res;
146         unsigned align = offsetof(struct struct_align, s) - 1;
147         unsigned add_node_size = (firm_add_node_size + align) & ~align;
148         size_t node_size = offsetof(ir_node, attr) + op->attr_size + add_node_size;
149         char *p;
150         int i;
151
152         assert(irg);
153         assert(op);
154         assert(mode);
155         p = (char*)obstack_alloc(irg->obst, node_size);
156         memset(p, 0, node_size);
157         res = (ir_node *)(p + add_node_size);
158
159         res->kind     = k_ir_node;
160         res->op       = op;
161         res->mode     = mode;
162         res->visited  = 0;
163         res->node_idx = irg_register_node_idx(irg, res);
164         res->link     = NULL;
165         res->deps     = NULL;
166
167         if (arity < 0) {
168                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
169         } else {
170                 /* not nice but necessary: End and Sync must always have a flexible array */
171                 if (op == op_End || op == op_Sync)
172                         res->in = NEW_ARR_F(ir_node *, (arity+1));
173                 else
174                         res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
175                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
176         }
177
178         res->in[0]   = block;
179         set_irn_dbg_info(res, db);
180         res->out     = NULL;
181         res->node_nr = get_irp_new_node_nr();
182
183         for (i = 0; i < EDGE_KIND_LAST; ++i) {
184                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
185                 /* edges will be build immediately */
186                 res->edge_info[i].edges_built = 1;
187                 res->edge_info[i].out_count = 0;
188         }
189
190         /* don't put this into the for loop, arity is -1 for some nodes! */
191         edges_notify_edge(res, -1, res->in[0], NULL, irg);
192         for (i = 1; i <= arity; ++i)
193                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
194
195         hook_new_node(irg, res);
196         if (get_irg_phase_state(irg) == phase_backend) {
197                 be_info_new_node(res);
198         }
199
200         return res;
201 }
202
203 /*-- getting some parameters from ir_nodes --*/
204
205 int (is_ir_node)(const void *thing)
206 {
207         return is_ir_node_(thing);
208 }
209
210 int (get_irn_arity)(const ir_node *node)
211 {
212         return get_irn_arity_(node);
213 }
214
215 /* Returns the array with ins. This array is shifted with respect to the
216    array accessed by get_irn_n: The block operand is at position 0 not -1.
217    (@@@ This should be changed.)
218    The order of the predecessors in this array is not guaranteed, except that
219    lists of operands as predecessors of Block or arguments of a Call are
220    consecutive. */
221 ir_node **get_irn_in(const ir_node *node)
222 {
223         return node->in;
224 }
225
226 void set_irn_in(ir_node *node, int arity, ir_node **in)
227 {
228         int i;
229         ir_node *** pOld_in;
230         ir_graph *irg = get_irn_irg(node);
231
232         pOld_in = &node->in;
233
234 #ifndef NDEBUG
235         assert(node != NULL && node->kind == k_ir_node);
236         assert(arity >= 0);
237         for (i = 0; i < arity; ++i) {
238                 assert(in[i] != NULL && in[0]->kind == k_ir_node);
239         }
240 #endif
241
242         for (i = 0; i < arity; i++) {
243                 if (i < (int)ARR_LEN(*pOld_in)-1)
244                         edges_notify_edge(node, i, in[i], (*pOld_in)[i+1], irg);
245                 else
246                         edges_notify_edge(node, i, in[i], NULL,            irg);
247         }
248         for (;i < (int)ARR_LEN(*pOld_in)-1; i++) {
249                 edges_notify_edge(node, i, NULL, (*pOld_in)[i+1], irg);
250         }
251
252         if (arity != (int)ARR_LEN(*pOld_in) - 1) {
253                 ir_node * block = (*pOld_in)[0];
254                 *pOld_in = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
255                 (*pOld_in)[0] = block;
256         }
257         fix_backedges(irg->obst, node);
258
259         memcpy((*pOld_in) + 1, in, sizeof(ir_node *) * arity);
260
261         /* update irg flags */
262         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
263 }
264
265 ir_node *(get_irn_n)(const ir_node *node, int n)
266 {
267         return get_irn_n_(node, n);
268 }
269
270 void set_irn_n(ir_node *node, int n, ir_node *in)
271 {
272         ir_graph *irg = get_irn_irg(node);
273         assert(node && node->kind == k_ir_node);
274         assert(-1 <= n);
275         assert(n < get_irn_arity(node));
276         assert(in && in->kind == k_ir_node);
277
278         /* Call the hook */
279         hook_set_irn_n(node, n, in, node->in[n + 1]);
280
281         /* Here, we rely on src and tgt being in the current ir graph */
282         edges_notify_edge(node, n, in, node->in[n + 1], irg);
283
284         node->in[n + 1] = in;
285
286         /* update irg flags */
287         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
288 }
289
290 int add_irn_n(ir_node *node, ir_node *in)
291 {
292         int pos;
293         ir_graph *irg = get_irn_irg(node);
294
295         assert(node->op->opar == oparity_dynamic);
296         pos = ARR_LEN(node->in) - 1;
297         ARR_APP1(ir_node *, node->in, in);
298         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
299
300         /* Call the hook */
301         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
302
303         return pos;
304 }
305
306 void del_Sync_n(ir_node *n, int i)
307 {
308         int      arity     = get_Sync_n_preds(n);
309         ir_node *last_pred = get_Sync_pred(n, arity - 1);
310         set_Sync_pred(n, i, last_pred);
311         edges_notify_edge(n, arity - 1, NULL, last_pred, get_irn_irg(n));
312         ARR_SHRINKLEN(get_irn_in(n), arity);
313 }
314
315 int (get_irn_deps)(const ir_node *node)
316 {
317         return get_irn_deps_(node);
318 }
319
320 ir_node *(get_irn_dep)(const ir_node *node, int pos)
321 {
322         return get_irn_dep_(node, pos);
323 }
324
325 void (set_irn_dep)(ir_node *node, int pos, ir_node *dep)
326 {
327         set_irn_dep_(node, pos, dep);
328 }
329
330 int add_irn_dep(ir_node *node, ir_node *dep)
331 {
332         int res = 0;
333
334         /* DEP edges are only allowed in backend phase */
335         assert(get_irg_phase_state(get_irn_irg(node)) == phase_backend);
336         if (node->deps == NULL) {
337                 node->deps = NEW_ARR_F(ir_node *, 1);
338                 node->deps[0] = dep;
339         } else {
340                 int i, n;
341                 int first_zero = -1;
342
343                 for (i = 0, n = ARR_LEN(node->deps); i < n; ++i) {
344                         if (node->deps[i] == NULL)
345                                 first_zero = i;
346
347                         if (node->deps[i] == dep)
348                                 return i;
349                 }
350
351                 if (first_zero >= 0) {
352                         node->deps[first_zero] = dep;
353                         res = first_zero;
354                 } else {
355                         ARR_APP1(ir_node *, node->deps, dep);
356                         res = n;
357                 }
358         }
359
360         edges_notify_edge_kind(node, res, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
361
362         return res;
363 }
364
365 void add_irn_deps(ir_node *tgt, ir_node *src)
366 {
367         int i, n;
368
369         for (i = 0, n = get_irn_deps(src); i < n; ++i)
370                 add_irn_dep(tgt, get_irn_dep(src, i));
371 }
372
373
374 ir_mode *(get_irn_mode)(const ir_node *node)
375 {
376         return get_irn_mode_(node);
377 }
378
379 void (set_irn_mode)(ir_node *node, ir_mode *mode)
380 {
381         set_irn_mode_(node, mode);
382 }
383
384 ir_op *(get_irn_op)(const ir_node *node)
385 {
386         return get_irn_op_(node);
387 }
388
389 /* should be private to the library: */
390 void (set_irn_op)(ir_node *node, ir_op *op)
391 {
392         set_irn_op_(node, op);
393 }
394
395 unsigned (get_irn_opcode)(const ir_node *node)
396 {
397         return get_irn_opcode_(node);
398 }
399
400 const char *get_irn_opname(const ir_node *node)
401 {
402         assert(node);
403         if (is_Phi0(node)) return "Phi0";
404         return get_id_str(node->op->name);
405 }
406
407 ident *get_irn_opident(const ir_node *node)
408 {
409         assert(node);
410         return node->op->name;
411 }
412
413 ir_visited_t (get_irn_visited)(const ir_node *node)
414 {
415         return get_irn_visited_(node);
416 }
417
418 void (set_irn_visited)(ir_node *node, ir_visited_t visited)
419 {
420         set_irn_visited_(node, visited);
421 }
422
423 void (mark_irn_visited)(ir_node *node)
424 {
425         mark_irn_visited_(node);
426 }
427
428 int (irn_visited)(const ir_node *node)
429 {
430         return irn_visited_(node);
431 }
432
433 int (irn_visited_else_mark)(ir_node *node)
434 {
435         return irn_visited_else_mark_(node);
436 }
437
438 void (set_irn_link)(ir_node *node, void *link)
439 {
440         set_irn_link_(node, link);
441 }
442
443 void *(get_irn_link)(const ir_node *node)
444 {
445         return get_irn_link_(node);
446 }
447
448 op_pin_state (get_irn_pinned)(const ir_node *node)
449 {
450         return get_irn_pinned_(node);
451 }
452
453 op_pin_state (is_irn_pinned_in_irg) (const ir_node *node)
454 {
455         return is_irn_pinned_in_irg_(node);
456 }
457
458 void set_irn_pinned(ir_node *node, op_pin_state state)
459 {
460         /* due to optimization an opt may be turned into a Tuple */
461         if (is_Tuple(node))
462                 return;
463
464         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
465         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
466
467         node->attr.except.pin_state = state;
468 }
469
470 /* Outputs a unique number for this node */
471 long get_irn_node_nr(const ir_node *node)
472 {
473         assert(node);
474         return node->node_nr;
475 }
476
477 void *(get_irn_generic_attr)(ir_node *node)
478 {
479         assert(is_ir_node(node));
480         return get_irn_generic_attr_(node);
481 }
482
483 const void *(get_irn_generic_attr_const)(const ir_node *node)
484 {
485         assert(is_ir_node(node));
486         return get_irn_generic_attr_const_(node);
487 }
488
489 unsigned (get_irn_idx)(const ir_node *node)
490 {
491         assert(is_ir_node(node));
492         return get_irn_idx_(node);
493 }
494
495 int get_irn_pred_pos(ir_node *node, ir_node *arg)
496 {
497         int i;
498         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
499                 if (get_irn_n(node, i) == arg)
500                         return i;
501         }
502         return -1;
503 }
504
505 /** manipulate fields of individual nodes **/
506
507 ir_node *(get_nodes_block)(const ir_node *node)
508 {
509         return get_nodes_block_(node);
510 }
511
512 void set_nodes_block(ir_node *node, ir_node *block)
513 {
514         assert(node->op != op_Block);
515         set_irn_n(node, -1, block);
516 }
517
518 /* Test whether arbitrary node is frame pointer, i.e. Proj(pn_Start_P_frame_base)
519  * from Start.  If so returns frame type, else Null. */
520 ir_type *is_frame_pointer(const ir_node *n)
521 {
522         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
523                 ir_node *start = get_Proj_pred(n);
524                 if (is_Start(start)) {
525                         return get_irg_frame_type(get_irn_irg(start));
526                 }
527         }
528         return NULL;
529 }
530
531 ir_node **get_Block_cfgpred_arr(ir_node *node)
532 {
533         assert(is_Block(node));
534         return (ir_node **)&(get_irn_in(node)[1]);
535 }
536
537 int (get_Block_n_cfgpreds)(const ir_node *node)
538 {
539         return get_Block_n_cfgpreds_(node);
540 }
541
542 ir_node *(get_Block_cfgpred)(const ir_node *node, int pos)
543 {
544         return get_Block_cfgpred_(node, pos);
545 }
546
547 void set_Block_cfgpred(ir_node *node, int pos, ir_node *pred)
548 {
549         assert(is_Block(node));
550         set_irn_n(node, pos, pred);
551 }
552
553 int get_Block_cfgpred_pos(const ir_node *block, const ir_node *pred)
554 {
555         int i;
556
557         for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
558                 if (get_Block_cfgpred_block(block, i) == pred)
559                         return i;
560         }
561         return -1;
562 }
563
564 ir_node *(get_Block_cfgpred_block)(const ir_node *node, int pos)
565 {
566         return get_Block_cfgpred_block_(node, pos);
567 }
568
569 int get_Block_matured(const ir_node *node)
570 {
571         assert(is_Block(node));
572         return (int)node->attr.block.is_matured;
573 }
574
575 void set_Block_matured(ir_node *node, int matured)
576 {
577         assert(is_Block(node));
578         node->attr.block.is_matured = matured;
579 }
580
581 ir_visited_t (get_Block_block_visited)(const ir_node *node)
582 {
583         return get_Block_block_visited_(node);
584 }
585
586 void (set_Block_block_visited)(ir_node *node, ir_visited_t visit)
587 {
588         set_Block_block_visited_(node, visit);
589 }
590
591 void (mark_Block_block_visited)(ir_node *node)
592 {
593         mark_Block_block_visited_(node);
594 }
595
596 int (Block_block_visited)(const ir_node *node)
597 {
598         return Block_block_visited_(node);
599 }
600
601 ir_extblk *get_Block_extbb(const ir_node *block)
602 {
603         ir_extblk *res;
604         assert(is_Block(block));
605         res = block->attr.block.extblk;
606         assert(res == NULL || is_ir_extbb(res));
607         return res;
608 }
609
610 void set_Block_extbb(ir_node *block, ir_extblk *extblk)
611 {
612         assert(is_Block(block));
613         assert(extblk == NULL || is_ir_extbb(extblk));
614         block->attr.block.extblk = extblk;
615 }
616
617 /* returns the graph of a Block. */
618 ir_graph *(get_Block_irg)(const ir_node *block)
619 {
620         return get_Block_irg_(block);
621 }
622
623 ir_entity *create_Block_entity(ir_node *block)
624 {
625         ir_entity *entity;
626         assert(is_Block(block));
627
628         entity = block->attr.block.entity;
629         if (entity == NULL) {
630                 ir_label_t  nr;
631                 ir_type   *glob;
632
633                 glob = get_glob_type();
634                 entity = new_entity(glob, id_unique("block_%u"), get_code_type());
635                 set_entity_visibility(entity, ir_visibility_local);
636                 set_entity_linkage(entity, IR_LINKAGE_CONSTANT);
637                 nr = get_irp_next_label_nr();
638                 set_entity_label(entity, nr);
639                 set_entity_compiler_generated(entity, 1);
640
641                 block->attr.block.entity = entity;
642         }
643         return entity;
644 }
645
646 ir_entity *get_Block_entity(const ir_node *block)
647 {
648         assert(is_Block(block));
649         return block->attr.block.entity;
650 }
651
652 void set_Block_entity(ir_node *block, ir_entity *entity)
653 {
654         assert(is_Block(block));
655         assert(get_entity_type(entity) == get_code_type());
656         block->attr.block.entity = entity;
657 }
658
659 int has_Block_entity(const ir_node *block)
660 {
661         return block->attr.block.entity != NULL;
662 }
663
664 ir_node *(get_Block_phis)(const ir_node *block)
665 {
666         return get_Block_phis_(block);
667 }
668
669 void (set_Block_phis)(ir_node *block, ir_node *phi)
670 {
671         set_Block_phis_(block, phi);
672 }
673
674 void (add_Block_phi)(ir_node *block, ir_node *phi)
675 {
676         add_Block_phi_(block, phi);
677 }
678
679 /* Get the Block mark (single bit). */
680 unsigned (get_Block_mark)(const ir_node *block)
681 {
682         return get_Block_mark_(block);
683 }
684
685 /* Set the Block mark (single bit). */
686 void (set_Block_mark)(ir_node *block, unsigned mark)
687 {
688         set_Block_mark_(block, mark);
689 }
690
691 int get_End_n_keepalives(const ir_node *end)
692 {
693         assert(is_End(end));
694         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
695 }
696
697 ir_node *get_End_keepalive(const ir_node *end, int pos)
698 {
699         assert(is_End(end));
700         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
701 }
702
703 void add_End_keepalive(ir_node *end, ir_node *ka)
704 {
705         assert(is_End(end));
706         add_irn_n(end, ka);
707 }
708
709 void set_End_keepalive(ir_node *end, int pos, ir_node *ka)
710 {
711         assert(is_End(end));
712         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
713 }
714
715 /* Set new keep-alives */
716 void set_End_keepalives(ir_node *end, int n, ir_node *in[])
717 {
718         size_t e;
719         int    i;
720         ir_graph *irg = get_irn_irg(end);
721
722         /* notify that edges are deleted */
723         for (e = END_KEEPALIVE_OFFSET; e < ARR_LEN(end->in) - 1; ++e) {
724                 edges_notify_edge(end, e, NULL, end->in[e + 1], irg);
725         }
726         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
727
728         for (i = 0; i < n; ++i) {
729                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
730                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
731         }
732
733         /* update irg flags */
734         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
735 }
736
737 /* Set new keep-alives from old keep-alives, skipping irn */
738 void remove_End_keepalive(ir_node *end, ir_node *irn)
739 {
740         int      n = get_End_n_keepalives(end);
741         int      i, idx;
742         ir_graph *irg;
743
744         idx = -1;
745         for (i = n -1; i >= 0; --i) {
746                 ir_node *old_ka = end->in[1 + END_KEEPALIVE_OFFSET + i];
747
748                 /* find irn */
749                 if (old_ka == irn) {
750                         idx = i;
751                         goto found;
752                 }
753         }
754         return;
755 found:
756         irg = get_irn_irg(end);
757
758         /* remove the edge */
759         edges_notify_edge(end, idx, NULL, irn, irg);
760
761         if (idx != n - 1) {
762                 /* exchange with the last one */
763                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
764                 edges_notify_edge(end, n - 1, NULL, old, irg);
765                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
766                 edges_notify_edge(end, idx, old, NULL, irg);
767         }
768         /* now n - 1 keeps, 1 block input */
769         ARR_RESIZE(ir_node *, end->in, (n - 1) + 1 + END_KEEPALIVE_OFFSET);
770
771         /* update irg flags */
772         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
773 }
774
775 /* remove Bads, NoMems and doublets from the keep-alive set */
776 void remove_End_Bads_and_doublets(ir_node *end)
777 {
778         pset_new_t keeps;
779         int        idx, n = get_End_n_keepalives(end);
780         ir_graph   *irg;
781         bool       changed = false;
782
783         if (n <= 0)
784                 return;
785
786         irg = get_irn_irg(end);
787         pset_new_init(&keeps);
788
789         for (idx = n - 1; idx >= 0; --idx) {
790                 ir_node *ka = get_End_keepalive(end, idx);
791
792                 if (is_Bad(ka) || is_NoMem(ka) || pset_new_contains(&keeps, ka)) {
793                         changed = true;
794                         /* remove the edge */
795                         edges_notify_edge(end, idx, NULL, ka, irg);
796
797                         if (idx != n - 1) {
798                                 /* exchange with the last one */
799                                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
800                                 edges_notify_edge(end, n - 1, NULL, old, irg);
801                                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
802                                 edges_notify_edge(end, idx, old, NULL, irg);
803                         }
804                         --n;
805                 } else {
806                         pset_new_insert(&keeps, ka);
807                 }
808         }
809         /* n keeps, 1 block input */
810         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
811
812         pset_new_destroy(&keeps);
813
814         if (changed) {
815                 clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
816         }
817 }
818
819 void free_End(ir_node *end)
820 {
821         assert(is_End(end));
822         end->kind = k_BAD;
823         DEL_ARR_F(end->in);
824         end->in = NULL;   /* @@@ make sure we get an error if we use the
825                              in array afterwards ... */
826 }
827
828 size_t get_Return_n_ress(const ir_node *node)
829 {
830         assert(is_Return(node));
831         return (size_t)(get_irn_arity(node) - RETURN_RESULT_OFFSET);
832 }
833
834 ir_node **get_Return_res_arr(ir_node *node)
835 {
836         assert(is_Return(node));
837         if (get_Return_n_ress(node) > 0)
838                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
839         else
840                 return NULL;
841 }
842
843 ir_node *get_Return_res(const ir_node *node, int pos)
844 {
845         assert(is_Return(node));
846         assert(pos >= 0);
847         assert(get_Return_n_ress(node) > (size_t)pos);
848         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
849 }
850
851 void set_Return_res(ir_node *node, int pos, ir_node *res)
852 {
853         assert(is_Return(node));
854         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
855 }
856
857 int (is_Const_null)(const ir_node *node)
858 {
859         return is_Const_null_(node);
860 }
861
862 int (is_Const_one)(const ir_node *node)
863 {
864         return is_Const_one_(node);
865 }
866
867 int (is_Const_all_one)(const ir_node *node)
868 {
869         return is_Const_all_one_(node);
870 }
871
872
873
874 symconst_kind get_SymConst_kind(const ir_node *node)
875 {
876         assert(is_SymConst(node));
877         return node->attr.symc.kind;
878 }
879
880 void set_SymConst_kind(ir_node *node, symconst_kind kind)
881 {
882         assert(is_SymConst(node));
883         node->attr.symc.kind = kind;
884 }
885
886 ir_type *get_SymConst_type(const ir_node *node)
887 {
888         /* the cast here is annoying, but we have to compensate for
889            the skip_tip() */
890         ir_node *irn = (ir_node *)node;
891         assert(is_SymConst(node) &&
892                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
893         return irn->attr.symc.sym.type_p;
894 }
895
896 void set_SymConst_type(ir_node *node, ir_type *tp)
897 {
898         assert(is_SymConst(node) &&
899                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
900         node->attr.symc.sym.type_p = tp;
901 }
902
903
904 /* Only to access SymConst of kind symconst_addr_ent.  Else assertion: */
905 ir_entity *get_SymConst_entity(const ir_node *node)
906 {
907         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
908         return node->attr.symc.sym.entity_p;
909 }
910
911 void set_SymConst_entity(ir_node *node, ir_entity *ent)
912 {
913         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
914         node->attr.symc.sym.entity_p  = ent;
915 }
916
917 ir_enum_const *get_SymConst_enum(const ir_node *node)
918 {
919         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
920         return node->attr.symc.sym.enum_p;
921 }
922
923 void set_SymConst_enum(ir_node *node, ir_enum_const *ec)
924 {
925         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
926         node->attr.symc.sym.enum_p  = ec;
927 }
928
929 union symconst_symbol
930 get_SymConst_symbol(const ir_node *node)
931 {
932         assert(is_SymConst(node));
933         return node->attr.symc.sym;
934 }
935
936 void set_SymConst_symbol(ir_node *node, union symconst_symbol sym)
937 {
938         assert(is_SymConst(node));
939         node->attr.symc.sym = sym;
940 }
941
942 int get_Sel_n_indexs(const ir_node *node)
943 {
944         assert(is_Sel(node));
945         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
946 }
947
948 ir_node **get_Sel_index_arr(ir_node *node)
949 {
950         assert(is_Sel(node));
951         if (get_Sel_n_indexs(node) > 0)
952                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
953         else
954                 return NULL;
955 }
956
957 ir_node *get_Sel_index(const ir_node *node, int pos)
958 {
959         assert(is_Sel(node));
960         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
961 }
962
963 void set_Sel_index(ir_node *node, int pos, ir_node *index)
964 {
965         assert(is_Sel(node));
966         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
967 }
968
969 ir_node **get_Call_param_arr(ir_node *node)
970 {
971         assert(is_Call(node));
972         return &get_irn_in(node)[CALL_PARAM_OFFSET + 1];
973 }
974
975 size_t get_Call_n_params(const ir_node *node)
976 {
977         assert(is_Call(node));
978         return (size_t) (get_irn_arity(node) - CALL_PARAM_OFFSET);
979 }
980
981 ir_node *get_Call_param(const ir_node *node, int pos)
982 {
983         assert(is_Call(node));
984         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
985 }
986
987 void set_Call_param(ir_node *node, int pos, ir_node *param)
988 {
989         assert(is_Call(node));
990         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
991 }
992
993 ir_node **get_Builtin_param_arr(ir_node *node)
994 {
995         assert(is_Builtin(node));
996         return &get_irn_in(node)[BUILTIN_PARAM_OFFSET + 1];
997 }
998
999 int get_Builtin_n_params(const ir_node *node)
1000 {
1001         assert(is_Builtin(node));
1002         return (get_irn_arity(node) - BUILTIN_PARAM_OFFSET);
1003 }
1004
1005 ir_node *get_Builtin_param(const ir_node *node, int pos)
1006 {
1007         assert(is_Builtin(node));
1008         return get_irn_n(node, pos + BUILTIN_PARAM_OFFSET);
1009 }
1010
1011 void set_Builtin_param(ir_node *node, int pos, ir_node *param)
1012 {
1013         assert(is_Builtin(node));
1014         set_irn_n(node, pos + BUILTIN_PARAM_OFFSET, param);
1015 }
1016
1017 /* Returns a human readable string for the ir_builtin_kind. */
1018 const char *get_builtin_kind_name(ir_builtin_kind kind)
1019 {
1020 #define X(a)    case a: return #a
1021         switch (kind) {
1022                 X(ir_bk_trap);
1023                 X(ir_bk_debugbreak);
1024                 X(ir_bk_return_address);
1025                 X(ir_bk_frame_address);
1026                 X(ir_bk_prefetch);
1027                 X(ir_bk_ffs);
1028                 X(ir_bk_clz);
1029                 X(ir_bk_ctz);
1030                 X(ir_bk_popcount);
1031                 X(ir_bk_parity);
1032                 X(ir_bk_bswap);
1033                 X(ir_bk_inport);
1034                 X(ir_bk_outport);
1035                 X(ir_bk_inner_trampoline);
1036         }
1037         return "<unknown>";
1038 #undef X
1039 }
1040
1041
1042 int Call_has_callees(const ir_node *node)
1043 {
1044         assert(is_Call(node));
1045         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
1046                 (node->attr.call.callee_arr != NULL));
1047 }
1048
1049 size_t get_Call_n_callees(const ir_node *node)
1050 {
1051   assert(is_Call(node) && node->attr.call.callee_arr);
1052   return ARR_LEN(node->attr.call.callee_arr);
1053 }
1054
1055 ir_entity *get_Call_callee(const ir_node *node, size_t pos)
1056 {
1057         assert(pos < get_Call_n_callees(node));
1058         return node->attr.call.callee_arr[pos];
1059 }
1060
1061 void set_Call_callee_arr(ir_node *node, size_t n, ir_entity ** arr)
1062 {
1063         ir_graph *irg = get_irn_irg(node);
1064
1065         assert(is_Call(node));
1066         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
1067                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, irg->obst, n);
1068         }
1069         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
1070 }
1071
1072 void remove_Call_callee_arr(ir_node *node)
1073 {
1074         assert(is_Call(node));
1075         node->attr.call.callee_arr = NULL;
1076 }
1077
1078 /* Checks for upcast.
1079  *
1080  * Returns true if the Cast node casts a class type to a super type.
1081  */
1082 int is_Cast_upcast(ir_node *node)
1083 {
1084         ir_type *totype   = get_Cast_type(node);
1085         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1086
1087         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1088         assert(fromtype);
1089
1090         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1091                 totype   = get_pointer_points_to_type(totype);
1092                 fromtype = get_pointer_points_to_type(fromtype);
1093         }
1094
1095         assert(fromtype);
1096
1097         if (!is_Class_type(totype)) return 0;
1098         return is_SubClass_of(fromtype, totype);
1099 }
1100
1101 /* Checks for downcast.
1102  *
1103  * Returns true if the Cast node casts a class type to a sub type.
1104  */
1105 int is_Cast_downcast(ir_node *node)
1106 {
1107         ir_type *totype   = get_Cast_type(node);
1108         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1109
1110         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1111         assert(fromtype);
1112
1113         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1114                 totype   = get_pointer_points_to_type(totype);
1115                 fromtype = get_pointer_points_to_type(fromtype);
1116         }
1117
1118         assert(fromtype);
1119
1120         if (!is_Class_type(totype)) return 0;
1121         return is_SubClass_of(totype, fromtype);
1122 }
1123
1124 int (is_unop)(const ir_node *node)
1125 {
1126         return is_unop_(node);
1127 }
1128
1129 ir_node *get_unop_op(const ir_node *node)
1130 {
1131         if (node->op->opar == oparity_unary)
1132                 return get_irn_n(node, node->op->op_index);
1133
1134         assert(node->op->opar == oparity_unary);
1135         return NULL;
1136 }
1137
1138 void set_unop_op(ir_node *node, ir_node *op)
1139 {
1140         if (node->op->opar == oparity_unary)
1141                 set_irn_n(node, node->op->op_index, op);
1142
1143         assert(node->op->opar == oparity_unary);
1144 }
1145
1146 int (is_binop)(const ir_node *node)
1147 {
1148         return is_binop_(node);
1149 }
1150
1151 ir_node *get_binop_left(const ir_node *node)
1152 {
1153         assert(node->op->opar == oparity_binary);
1154         return get_irn_n(node, node->op->op_index);
1155 }
1156
1157 void set_binop_left(ir_node *node, ir_node *left)
1158 {
1159         assert(node->op->opar == oparity_binary);
1160         set_irn_n(node, node->op->op_index, left);
1161 }
1162
1163 ir_node *get_binop_right(const ir_node *node)
1164 {
1165         assert(node->op->opar == oparity_binary);
1166         return get_irn_n(node, node->op->op_index + 1);
1167 }
1168
1169 void set_binop_right(ir_node *node, ir_node *right)
1170 {
1171         assert(node->op->opar == oparity_binary);
1172         set_irn_n(node, node->op->op_index + 1, right);
1173 }
1174
1175 int is_Phi0(const ir_node *n)
1176 {
1177         assert(n);
1178
1179         return ((get_irn_op(n) == op_Phi) &&
1180                 (get_irn_arity(n) == 0) &&
1181                 (get_irg_phase_state(get_irn_irg(n)) ==  phase_building));
1182 }
1183
1184 ir_node **get_Phi_preds_arr(ir_node *node)
1185 {
1186   assert(is_Phi(node));
1187   return (ir_node **)&(get_irn_in(node)[1]);
1188 }
1189
1190 int get_Phi_n_preds(const ir_node *node)
1191 {
1192         assert(is_Phi(node) || is_Phi0(node));
1193         return (get_irn_arity(node));
1194 }
1195
1196 ir_node *get_Phi_pred(const ir_node *node, int pos)
1197 {
1198         assert(is_Phi(node) || is_Phi0(node));
1199         return get_irn_n(node, pos);
1200 }
1201
1202 void set_Phi_pred(ir_node *node, int pos, ir_node *pred)
1203 {
1204         assert(is_Phi(node) || is_Phi0(node));
1205         set_irn_n(node, pos, pred);
1206 }
1207
1208 ir_node *(get_Phi_next)(const ir_node *phi)
1209 {
1210         return get_Phi_next_(phi);
1211 }
1212
1213 void (set_Phi_next)(ir_node *phi, ir_node *next)
1214 {
1215         set_Phi_next_(phi, next);
1216 }
1217
1218 int is_memop(const ir_node *node)
1219 {
1220         unsigned code = get_irn_opcode(node);
1221         return (code == iro_Load || code == iro_Store);
1222 }
1223
1224 ir_node *get_memop_mem(const ir_node *node)
1225 {
1226         assert(is_memop(node));
1227         assert(n_Load_mem == 0 && n_Store_mem == 0);
1228         return get_irn_n(node, 0);
1229 }
1230
1231 void set_memop_mem(ir_node *node, ir_node *mem)
1232 {
1233         assert(is_memop(node));
1234         assert(n_Load_mem == 0 && n_Store_mem == 0);
1235         set_irn_n(node, 0, mem);
1236 }
1237
1238 ir_node *get_memop_ptr(const ir_node *node)
1239 {
1240         assert(is_memop(node));
1241         assert(n_Load_mem == 1 && n_Store_mem == 1);
1242         return get_irn_n(node, 1);
1243 }
1244
1245 void set_memop_ptr(ir_node *node, ir_node *ptr)
1246 {
1247         assert(is_memop(node));
1248         assert(n_Load_mem == 1 && n_Store_mem == 1);
1249         set_irn_n(node, 1, ptr);
1250 }
1251
1252
1253 ir_node **get_Sync_preds_arr(ir_node *node)
1254 {
1255         assert(is_Sync(node));
1256         return (ir_node **)&(get_irn_in(node)[1]);
1257 }
1258
1259 int get_Sync_n_preds(const ir_node *node)
1260 {
1261         assert(is_Sync(node));
1262         return (get_irn_arity(node));
1263 }
1264
1265 /*
1266 void set_Sync_n_preds(ir_node *node, int n_preds)
1267 {
1268         assert(is_Sync(node));
1269 }
1270 */
1271
1272 ir_node *get_Sync_pred(const ir_node *node, int pos)
1273 {
1274         assert(is_Sync(node));
1275         return get_irn_n(node, pos);
1276 }
1277
1278 void set_Sync_pred(ir_node *node, int pos, ir_node *pred)
1279 {
1280         assert(is_Sync(node));
1281         set_irn_n(node, pos, pred);
1282 }
1283
1284 /* Add a new Sync predecessor */
1285 void add_Sync_pred(ir_node *node, ir_node *pred)
1286 {
1287         assert(is_Sync(node));
1288         add_irn_n(node, pred);
1289 }
1290
1291 int (is_arg_Proj)(const ir_node *node)
1292 {
1293         return is_arg_Proj_(node);
1294 }
1295
1296 int is_x_except_Proj(const ir_node *node)
1297 {
1298         ir_node *pred;
1299         if (!is_Proj(node))
1300                 return false;
1301         pred = get_Proj_pred(node);
1302         if (!is_fragile_op(pred))
1303                 return false;
1304         return get_Proj_proj(node) == pred->op->pn_x_except;
1305 }
1306
1307 int is_x_regular_Proj(const ir_node *node)
1308 {
1309         ir_node *pred;
1310         if (!is_Proj(node))
1311                 return false;
1312         pred = get_Proj_pred(node);
1313         if (!is_fragile_op(pred))
1314                 return false;
1315         return get_Proj_proj(node) == pred->op->pn_x_regular;
1316 }
1317
1318 void ir_set_throws_exception(ir_node *node, int throws_exception)
1319 {
1320         except_attr *attr = &node->attr.except;
1321         assert(is_fragile_op(node));
1322         attr->throws_exception = throws_exception;
1323 }
1324
1325 int ir_throws_exception(const ir_node *node)
1326 {
1327         const except_attr *attr = &node->attr.except;
1328         assert(is_fragile_op(node));
1329         return attr->throws_exception;
1330 }
1331
1332 ir_node **get_Tuple_preds_arr(ir_node *node)
1333 {
1334         assert(is_Tuple(node));
1335         return (ir_node **)&(get_irn_in(node)[1]);
1336 }
1337
1338 int get_Tuple_n_preds(const ir_node *node)
1339 {
1340         assert(is_Tuple(node));
1341         return get_irn_arity(node);
1342 }
1343
1344 ir_node *get_Tuple_pred(const ir_node *node, int pos)
1345 {
1346   assert(is_Tuple(node));
1347   return get_irn_n(node, pos);
1348 }
1349
1350 void set_Tuple_pred(ir_node *node, int pos, ir_node *pred)
1351 {
1352         assert(is_Tuple(node));
1353         set_irn_n(node, pos, pred);
1354 }
1355
1356 int get_ASM_n_input_constraints(const ir_node *node)
1357 {
1358         assert(is_ASM(node));
1359         return ARR_LEN(node->attr.assem.input_constraints);
1360 }
1361
1362 int get_ASM_n_output_constraints(const ir_node *node)
1363 {
1364         assert(is_ASM(node));
1365         return ARR_LEN(node->attr.assem.output_constraints);
1366 }
1367
1368 int get_ASM_n_clobbers(const ir_node *node)
1369 {
1370         assert(is_ASM(node));
1371         return ARR_LEN(node->attr.assem.clobbers);
1372 }
1373
1374 /* returns the graph of a node */
1375 ir_graph *(get_irn_irg)(const ir_node *node)
1376 {
1377         return get_irn_irg_(node);
1378 }
1379
1380
1381 /*----------------------------------------------------------------*/
1382 /*  Auxiliary routines                                            */
1383 /*----------------------------------------------------------------*/
1384
1385 ir_node *skip_Proj(ir_node *node)
1386 {
1387         /* don't assert node !!! */
1388         if (node == NULL)
1389                 return NULL;
1390
1391         if (is_Proj(node))
1392                 node = get_Proj_pred(node);
1393
1394         return node;
1395 }
1396
1397 const ir_node *
1398 skip_Proj_const(const ir_node *node)
1399 {
1400         /* don't assert node !!! */
1401         if (node == NULL)
1402                 return NULL;
1403
1404         if (is_Proj(node))
1405                 node = get_Proj_pred(node);
1406
1407         return node;
1408 }
1409
1410 ir_node *skip_Tuple(ir_node *node)
1411 {
1412   ir_node *pred;
1413
1414 restart:
1415         if (is_Proj(node)) {
1416             pred = get_Proj_pred(node);
1417
1418                 if (is_Proj(pred)) { /* nested Tuple ? */
1419                     pred = skip_Tuple(pred);
1420
1421                         if (is_Tuple(pred)) {
1422                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
1423                                 goto restart;
1424                         }
1425                 } else if (is_Tuple(pred)) {
1426                         node = get_Tuple_pred(pred, get_Proj_proj(node));
1427                         goto restart;
1428                 }
1429         }
1430         return node;
1431 }
1432
1433 /* returns operand of node if node is a Cast */
1434 ir_node *skip_Cast(ir_node *node)
1435 {
1436         if (is_Cast(node))
1437                 return get_Cast_op(node);
1438         return node;
1439 }
1440
1441 /* returns operand of node if node is a Cast */
1442 const ir_node *skip_Cast_const(const ir_node *node)
1443 {
1444         if (is_Cast(node))
1445                 return get_Cast_op(node);
1446         return node;
1447 }
1448
1449 /* returns operand of node if node is a Pin */
1450 ir_node *skip_Pin(ir_node *node)
1451 {
1452         if (is_Pin(node))
1453                 return get_Pin_op(node);
1454         return node;
1455 }
1456
1457 /* returns operand of node if node is a Confirm */
1458 ir_node *skip_Confirm(ir_node *node)
1459 {
1460         if (is_Confirm(node))
1461                 return get_Confirm_value(node);
1462         return node;
1463 }
1464
1465 /* skip all high-level ops */
1466 ir_node *skip_HighLevel_ops(ir_node *node)
1467 {
1468         while (is_op_highlevel(get_irn_op(node))) {
1469                 node = get_irn_n(node, 0);
1470         }
1471         return node;
1472 }
1473
1474
1475 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
1476  * than any other approach, as Id chains are resolved and all point to the real node, or
1477  * all id's are self loops.
1478  *
1479  * Note: This function takes 10% of mostly ANY the compiler run, so it's
1480  * a little bit "hand optimized".
1481  */
1482 ir_node *skip_Id(ir_node *node)
1483 {
1484         ir_node *pred;
1485         /* don't assert node !!! */
1486
1487         if (!node || (node->op != op_Id)) return node;
1488
1489         /* Don't use get_Id_pred():  We get into an endless loop for
1490            self-referencing Ids. */
1491         pred = node->in[0+1];
1492
1493         if (pred->op != op_Id) return pred;
1494
1495         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
1496                 ir_node *rem_pred, *res;
1497
1498                 if (pred->op != op_Id) return pred; /* shortcut */
1499                 rem_pred = pred;
1500
1501                 assert(get_irn_arity (node) > 0);
1502
1503                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
1504                 res = skip_Id(rem_pred);
1505                 if (is_Id(res)) /* self-loop */ return node;
1506
1507                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
1508                 return res;
1509         } else {
1510                 return node;
1511         }
1512 }
1513
1514 int (is_strictConv)(const ir_node *node)
1515 {
1516         return is_strictConv_(node);
1517 }
1518
1519 /* Returns true if node is a SymConst node with kind symconst_addr_ent. */
1520 int (is_SymConst_addr_ent)(const ir_node *node)
1521 {
1522         return is_SymConst_addr_ent_(node);
1523 }
1524
1525 /* Returns true if the operation manipulates control flow. */
1526 int is_cfop(const ir_node *node)
1527 {
1528         if (is_fragile_op(node) && ir_throws_exception(node))
1529                 return true;
1530
1531         return is_op_cfopcode(get_irn_op(node));
1532 }
1533
1534 int is_unknown_jump(const ir_node *node)
1535 {
1536         return is_op_unknown_jump(get_irn_op(node));
1537 }
1538
1539 /* Returns true if the operation can change the control flow because
1540    of an exception. */
1541 int is_fragile_op(const ir_node *node)
1542 {
1543         return is_op_fragile(get_irn_op(node));
1544 }
1545
1546 /* Returns the memory operand of fragile operations. */
1547 ir_node *get_fragile_op_mem(ir_node *node)
1548 {
1549         assert(node && is_fragile_op(node));
1550         return get_irn_n(node, node->op->fragile_mem_index);
1551 }
1552
1553 /* Returns true if the operation is a forking control flow operation. */
1554 int (is_irn_forking)(const ir_node *node)
1555 {
1556         return is_irn_forking_(node);
1557 }
1558
1559 void (copy_node_attr)(ir_graph *irg, const ir_node *old_node, ir_node *new_node)
1560 {
1561         copy_node_attr_(irg, old_node, new_node);
1562 }
1563
1564 /* Return the type attribute of a node n (SymConst, Call, Alloc, Free,
1565    Cast) or NULL.*/
1566 ir_type *(get_irn_type_attr)(ir_node *node)
1567 {
1568         return get_irn_type_attr_(node);
1569 }
1570
1571 /* Return the entity attribute of a node n (SymConst, Sel) or NULL. */
1572 ir_entity *(get_irn_entity_attr)(ir_node *node)
1573 {
1574         return get_irn_entity_attr_(node);
1575 }
1576
1577 /* Returns non-zero for constant-like nodes. */
1578 int (is_irn_constlike)(const ir_node *node)
1579 {
1580         return is_irn_constlike_(node);
1581 }
1582
1583 /*
1584  * Returns non-zero for nodes that are allowed to have keep-alives and
1585  * are neither Block nor PhiM.
1586  */
1587 int (is_irn_keep)(const ir_node *node)
1588 {
1589         return is_irn_keep_(node);
1590 }
1591
1592 /*
1593  * Returns non-zero for nodes that are always placed in the start block.
1594  */
1595 int (is_irn_start_block_placed)(const ir_node *node)
1596 {
1597         return is_irn_start_block_placed_(node);
1598 }
1599
1600 /* Returns non-zero for nodes that are CSE neutral to its users. */
1601 int (is_irn_cse_neutral)(const ir_node *node)
1602 {
1603         return is_irn_cse_neutral_(node);
1604 }
1605
1606 /* Gets the string representation of the jump prediction .*/
1607 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred)
1608 {
1609 #define X(a)    case a: return #a
1610         switch (pred) {
1611                 X(COND_JMP_PRED_NONE);
1612                 X(COND_JMP_PRED_TRUE);
1613                 X(COND_JMP_PRED_FALSE);
1614         }
1615         return "<unknown>";
1616 #undef X
1617 }
1618
1619 /** Return the attribute type of a SymConst node if exists */
1620 static ir_type *get_SymConst_attr_type(const ir_node *self)
1621 {
1622         symconst_kind kind = get_SymConst_kind(self);
1623         if (SYMCONST_HAS_TYPE(kind))
1624                 return get_SymConst_type(self);
1625         return NULL;
1626 }
1627
1628 /** Return the attribute entity of a SymConst node if exists */
1629 static ir_entity *get_SymConst_attr_entity(const ir_node *self)
1630 {
1631         symconst_kind kind = get_SymConst_kind(self);
1632         if (SYMCONST_HAS_ENT(kind))
1633                 return get_SymConst_entity(self);
1634         return NULL;
1635 }
1636
1637 /** the get_type_attr operation must be always implemented */
1638 static ir_type *get_Null_type(const ir_node *n)
1639 {
1640         (void) n;
1641         return firm_unknown_type;
1642 }
1643
1644 /* Sets the get_type operation for an ir_op_ops. */
1645 ir_op_ops *firm_set_default_get_type_attr(unsigned code, ir_op_ops *ops)
1646 {
1647         switch (code) {
1648         case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
1649         case iro_Call:     ops->get_type_attr = get_Call_type; break;
1650         case iro_Alloc:    ops->get_type_attr = get_Alloc_type; break;
1651         case iro_Free:     ops->get_type_attr = get_Free_type; break;
1652         case iro_Cast:     ops->get_type_attr = get_Cast_type; break;
1653         default:
1654                 /* not allowed to be NULL */
1655                 if (! ops->get_type_attr)
1656                         ops->get_type_attr = get_Null_type;
1657                 break;
1658         }
1659         return ops;
1660 }
1661
1662 /** the get_entity_attr operation must be always implemented */
1663 static ir_entity *get_Null_ent(const ir_node *n)
1664 {
1665         (void) n;
1666         return NULL;
1667 }
1668
1669 /* Sets the get_type operation for an ir_op_ops. */
1670 ir_op_ops *firm_set_default_get_entity_attr(unsigned code, ir_op_ops *ops)
1671 {
1672         switch (code) {
1673         case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
1674         case iro_Sel:      ops->get_entity_attr = get_Sel_entity; break;
1675         default:
1676                 /* not allowed to be NULL */
1677                 if (! ops->get_entity_attr)
1678                         ops->get_entity_attr = get_Null_ent;
1679                 break;
1680         }
1681         return ops;
1682 }
1683
1684 /* Sets the debug information of a node. */
1685 void (set_irn_dbg_info)(ir_node *n, dbg_info *db)
1686 {
1687         set_irn_dbg_info_(n, db);
1688 }
1689
1690 /**
1691  * Returns the debug information of an node.
1692  *
1693  * @param n   The node.
1694  */
1695 dbg_info *(get_irn_dbg_info)(const ir_node *n)
1696 {
1697         return get_irn_dbg_info_(n);
1698 }
1699
1700 ir_switch_table *ir_new_switch_table(ir_graph *irg, size_t n_entries)
1701 {
1702         struct obstack *obst = get_irg_obstack(irg);
1703         ir_switch_table *res = OALLOCFZ(obst, ir_switch_table, entries, n_entries);
1704         res->n_entries = n_entries;
1705         return res;
1706 }
1707
1708 void ir_switch_table_set(ir_switch_table *table, size_t n,
1709                          ir_tarval *min, ir_tarval *max, long pn)
1710 {
1711         ir_switch_table_entry *entry = ir_switch_table_get_entry(table, n);
1712         entry->min = min;
1713         entry->max = max;
1714         entry->pn  = pn;
1715 }
1716
1717 size_t (ir_switch_table_get_n_entries)(const ir_switch_table *table)
1718 {
1719         return ir_switch_table_get_n_entries_(table);
1720 }
1721
1722 ir_tarval *ir_switch_table_get_max(const ir_switch_table *table, size_t e)
1723 {
1724         return ir_switch_table_get_entry_const(table, e)->max;
1725 }
1726
1727 ir_tarval *ir_switch_table_get_min(const ir_switch_table *table, size_t e)
1728 {
1729         return ir_switch_table_get_entry_const(table, e)->min;
1730 }
1731
1732 long ir_switch_table_get_pn(const ir_switch_table *table, size_t e)
1733 {
1734         return ir_switch_table_get_entry_const(table, e)->pn;
1735 }
1736
1737 ir_switch_table *ir_switch_table_duplicate(ir_graph *irg,
1738                                            const ir_switch_table *table)
1739 {
1740         size_t n_entries = ir_switch_table_get_n_entries(table);
1741         size_t e;
1742         ir_switch_table *res = ir_new_switch_table(irg, n_entries);
1743         for (e = 0; e < n_entries; ++e) {
1744                 const ir_switch_table_entry *entry
1745                         = ir_switch_table_get_entry_const(table, e);
1746                 ir_switch_table_entry *new_entry = ir_switch_table_get_entry(res, e);
1747                 *new_entry = *entry;
1748         }
1749         return res;
1750 }
1751
1752 /*
1753  * Calculate a hash value of a node.
1754  */
1755 unsigned firm_default_hash(const ir_node *node)
1756 {
1757         unsigned h;
1758         int i, irn_arity;
1759
1760         /* hash table value = 9*(9*(9*(9*(9*arity+in[0])+in[1])+ ...)+mode)+code */
1761         h = irn_arity = get_irn_arity(node);
1762
1763         /* consider all in nodes... except the block if not a control flow. */
1764         for (i = is_cfop(node) ? -1 : 0;  i < irn_arity;  ++i) {
1765                 ir_node *pred = get_irn_n(node, i);
1766                 if (is_irn_cse_neutral(pred))
1767                         h *= 9;
1768                 else
1769                         h = 9*h + HASH_PTR(pred);
1770         }
1771
1772         /* ...mode,... */
1773         h = 9*h + HASH_PTR(get_irn_mode(node));
1774         /* ...and code */
1775         h = 9*h + HASH_PTR(get_irn_op(node));
1776
1777         return h;
1778 }
1779
1780 /* include generated code */
1781 #include "gen_irnode.c.inl"