99a7b2e95eda591e72fa4a45250dd5c6a413ac59
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  * @version $Id$
25  */
26 #include "config.h"
27
28 #include <string.h>
29
30 #include "pset_new.h"
31 #include "ident.h"
32 #include "irnode_t.h"
33 #include "irgraph_t.h"
34 #include "irmode_t.h"
35 #include "irbackedge_t.h"
36 #include "irdump.h"
37 #include "irop_t.h"
38 #include "irprog_t.h"
39 #include "iredgekinds.h"
40 #include "iredges_t.h"
41 #include "ircons.h"
42 #include "error.h"
43
44 #include "irhooks.h"
45 #include "irtools.h"
46 #include "util.h"
47
48 #include "beinfo.h"
49
50 /* some constants fixing the positions of nodes predecessors
51    in the in array */
52 #define CALL_PARAM_OFFSET     (n_Call_max+1)
53 #define BUILTIN_PARAM_OFFSET  (n_Builtin_max+1)
54 #define SEL_INDEX_OFFSET      (n_Sel_max+1)
55 #define RETURN_RESULT_OFFSET  (n_Return_max+1)
56 #define END_KEEPALIVE_OFFSET  0
57
58 static const char *relation_names [] = {
59         "false",
60         "equal",
61         "less",
62         "less_equal",
63         "greater",
64         "greater_equal",
65         "less_greater",
66         "less_equal_greater",
67         "unordered",
68         "unordered_equal",
69         "unordered_less",
70         "unordered_less_equal",
71         "unordered_greater",
72         "unordered_greater_equal",
73         "not_equal",
74         "true"
75 };
76
77 const char *get_relation_string(ir_relation relation)
78 {
79         assert(relation < (ir_relation)ARRAY_SIZE(relation_names));
80         return relation_names[relation];
81 }
82
83 ir_relation get_negated_relation(ir_relation relation)
84 {
85         return relation ^ ir_relation_true;
86 }
87
88 ir_relation get_inversed_relation(ir_relation relation)
89 {
90         ir_relation code    = relation & ~(ir_relation_less|ir_relation_greater);
91         bool        less    = relation & ir_relation_less;
92         bool        greater = relation & ir_relation_greater;
93         code |= (less ? ir_relation_greater : 0) | (greater ? ir_relation_less : 0);
94         return code;
95 }
96
97 /**
98  * Indicates, whether additional data can be registered to ir nodes.
99  * If set to 1, this is not possible anymore.
100  */
101 static int forbid_new_data = 0;
102
103 /**
104  * The amount of additional space for custom data to be allocated upon
105  * creating a new node.
106  */
107 unsigned firm_add_node_size = 0;
108
109
110 /* register new space for every node */
111 unsigned firm_register_additional_node_data(unsigned size)
112 {
113         assert(!forbid_new_data && "Too late to register additional node data");
114
115         if (forbid_new_data)
116                 return 0;
117
118         return firm_add_node_size += size;
119 }
120
121
122 void init_irnode(void)
123 {
124         /* Forbid the addition of new data to an ir node. */
125         forbid_new_data = 1;
126 }
127
128 struct struct_align {
129         char c;
130         struct s {
131                 int i;
132                 float f;
133                 double d;
134         } s;
135 };
136
137 /*
138  * irnode constructor.
139  * Create a new irnode in irg, with an op, mode, arity and
140  * some incoming irnodes.
141  * If arity is negative, a node with a dynamic array is created.
142  */
143 ir_node *new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op,
144                      ir_mode *mode, int arity, ir_node *const *in)
145 {
146         ir_node *res;
147         unsigned align = offsetof(struct struct_align, s) - 1;
148         unsigned add_node_size = (firm_add_node_size + align) & ~align;
149         size_t node_size = offsetof(ir_node, attr) + op->attr_size + add_node_size;
150         char *p;
151         int i;
152
153         assert(irg);
154         assert(op);
155         assert(mode);
156         p = (char*)obstack_alloc(irg->obst, node_size);
157         memset(p, 0, node_size);
158         res = (ir_node *)(p + add_node_size);
159
160         res->kind     = k_ir_node;
161         res->op       = op;
162         res->mode     = mode;
163         res->visited  = 0;
164         res->node_idx = irg_register_node_idx(irg, res);
165         res->link     = NULL;
166         res->deps     = NULL;
167
168         if (arity < 0) {
169                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
170         } else {
171                 /* not nice but necessary: End and Sync must always have a flexible array */
172                 if (op == op_End || op == op_Sync)
173                         res->in = NEW_ARR_F(ir_node *, (arity+1));
174                 else
175                         res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
176                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
177         }
178
179         res->in[0]   = block;
180         set_irn_dbg_info(res, db);
181         res->out     = NULL;
182         res->node_nr = get_irp_new_node_nr();
183
184         for (i = 0; i < EDGE_KIND_LAST; ++i) {
185                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
186                 /* edges will be build immediately */
187                 res->edge_info[i].edges_built = 1;
188                 res->edge_info[i].out_count = 0;
189         }
190
191         /* don't put this into the for loop, arity is -1 for some nodes! */
192         edges_notify_edge(res, -1, res->in[0], NULL, irg);
193         for (i = 1; i <= arity; ++i)
194                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
195
196         hook_new_node(irg, res);
197         if (get_irg_phase_state(irg) == phase_backend) {
198                 be_info_new_node(res);
199         }
200
201         return res;
202 }
203
204 /*-- getting some parameters from ir_nodes --*/
205
206 int (is_ir_node)(const void *thing)
207 {
208         return _is_ir_node(thing);
209 }
210
211 int (get_irn_arity)(const ir_node *node)
212 {
213         return _get_irn_arity(node);
214 }
215
216 /* Returns the array with ins. This array is shifted with respect to the
217    array accessed by get_irn_n: The block operand is at position 0 not -1.
218    (@@@ This should be changed.)
219    The order of the predecessors in this array is not guaranteed, except that
220    lists of operands as predecessors of Block or arguments of a Call are
221    consecutive. */
222 ir_node **get_irn_in(const ir_node *node)
223 {
224         return node->in;
225 }
226
227 void set_irn_in(ir_node *node, int arity, ir_node **in)
228 {
229         int i;
230         ir_node *** pOld_in;
231         ir_graph *irg = get_irn_irg(node);
232
233         pOld_in = &node->in;
234
235
236         for (i = 0; i < arity; i++) {
237                 if (i < (int)ARR_LEN(*pOld_in)-1)
238                         edges_notify_edge(node, i, in[i], (*pOld_in)[i+1], irg);
239                 else
240                         edges_notify_edge(node, i, in[i], NULL,            irg);
241         }
242         for (;i < (int)ARR_LEN(*pOld_in)-1; i++) {
243                 edges_notify_edge(node, i, NULL, (*pOld_in)[i+1], irg);
244         }
245
246         if (arity != (int)ARR_LEN(*pOld_in) - 1) {
247                 ir_node * block = (*pOld_in)[0];
248                 *pOld_in = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
249                 (*pOld_in)[0] = block;
250         }
251         fix_backedges(irg->obst, node);
252
253         memcpy((*pOld_in) + 1, in, sizeof(ir_node *) * arity);
254
255         /* update irg flags */
256         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
257 }
258
259 ir_node *(get_irn_n)(const ir_node *node, int n)
260 {
261         return _get_irn_n(node, n);
262 }
263
264 void set_irn_n(ir_node *node, int n, ir_node *in)
265 {
266         ir_graph *irg = get_irn_irg(node);
267         assert(node && node->kind == k_ir_node);
268         assert(-1 <= n);
269         assert(n < get_irn_arity(node));
270         assert(in && in->kind == k_ir_node);
271
272         /* Call the hook */
273         hook_set_irn_n(node, n, in, node->in[n + 1]);
274
275         /* Here, we rely on src and tgt being in the current ir graph */
276         edges_notify_edge(node, n, in, node->in[n + 1], irg);
277
278         node->in[n + 1] = in;
279
280         /* update irg flags */
281         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
282 }
283
284 int add_irn_n(ir_node *node, ir_node *in)
285 {
286         int pos;
287         ir_graph *irg = get_irn_irg(node);
288
289         assert(node->op->opar == oparity_dynamic);
290         pos = ARR_LEN(node->in) - 1;
291         ARR_APP1(ir_node *, node->in, in);
292         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
293
294         /* Call the hook */
295         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
296
297         return pos;
298 }
299
300 void del_Sync_n(ir_node *n, int i)
301 {
302         int      arity     = get_Sync_n_preds(n);
303         ir_node *last_pred = get_Sync_pred(n, arity - 1);
304         set_Sync_pred(n, i, last_pred);
305         edges_notify_edge(n, arity - 1, NULL, last_pred, get_irn_irg(n));
306         ARR_SHRINKLEN(get_irn_in(n), arity);
307 }
308
309 int (get_irn_deps)(const ir_node *node)
310 {
311         return _get_irn_deps(node);
312 }
313
314 ir_node *(get_irn_dep)(const ir_node *node, int pos)
315 {
316         return _get_irn_dep(node, pos);
317 }
318
319 void (set_irn_dep)(ir_node *node, int pos, ir_node *dep)
320 {
321         _set_irn_dep(node, pos, dep);
322 }
323
324 int add_irn_dep(ir_node *node, ir_node *dep)
325 {
326         int res = 0;
327
328         /* DEP edges are only allowed in backend phase */
329         assert(get_irg_phase_state(get_irn_irg(node)) == phase_backend);
330         if (node->deps == NULL) {
331                 node->deps = NEW_ARR_F(ir_node *, 1);
332                 node->deps[0] = dep;
333         } else {
334                 int i, n;
335                 int first_zero = -1;
336
337                 for (i = 0, n = ARR_LEN(node->deps); i < n; ++i) {
338                         if (node->deps[i] == NULL)
339                                 first_zero = i;
340
341                         if (node->deps[i] == dep)
342                                 return i;
343                 }
344
345                 if (first_zero >= 0) {
346                         node->deps[first_zero] = dep;
347                         res = first_zero;
348                 } else {
349                         ARR_APP1(ir_node *, node->deps, dep);
350                         res = n;
351                 }
352         }
353
354         edges_notify_edge_kind(node, res, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
355
356         return res;
357 }
358
359 void add_irn_deps(ir_node *tgt, ir_node *src)
360 {
361         int i, n;
362
363         for (i = 0, n = get_irn_deps(src); i < n; ++i)
364                 add_irn_dep(tgt, get_irn_dep(src, i));
365 }
366
367
368 ir_mode *(get_irn_mode)(const ir_node *node)
369 {
370         return _get_irn_mode(node);
371 }
372
373 void (set_irn_mode)(ir_node *node, ir_mode *mode)
374 {
375         _set_irn_mode(node, mode);
376 }
377
378 ir_op *(get_irn_op)(const ir_node *node)
379 {
380         return _get_irn_op(node);
381 }
382
383 /* should be private to the library: */
384 void (set_irn_op)(ir_node *node, ir_op *op)
385 {
386         _set_irn_op(node, op);
387 }
388
389 unsigned (get_irn_opcode)(const ir_node *node)
390 {
391         return _get_irn_opcode(node);
392 }
393
394 const char *get_irn_opname(const ir_node *node)
395 {
396         assert(node);
397         if (is_Phi0(node)) return "Phi0";
398         return get_id_str(node->op->name);
399 }
400
401 ident *get_irn_opident(const ir_node *node)
402 {
403         assert(node);
404         return node->op->name;
405 }
406
407 ir_visited_t (get_irn_visited)(const ir_node *node)
408 {
409         return _get_irn_visited(node);
410 }
411
412 void (set_irn_visited)(ir_node *node, ir_visited_t visited)
413 {
414         _set_irn_visited(node, visited);
415 }
416
417 void (mark_irn_visited)(ir_node *node)
418 {
419         _mark_irn_visited(node);
420 }
421
422 int (irn_visited)(const ir_node *node)
423 {
424         return _irn_visited(node);
425 }
426
427 int (irn_visited_else_mark)(ir_node *node)
428 {
429         return _irn_visited_else_mark(node);
430 }
431
432 void (set_irn_link)(ir_node *node, void *link)
433 {
434         _set_irn_link(node, link);
435 }
436
437 void *(get_irn_link)(const ir_node *node)
438 {
439         return _get_irn_link(node);
440 }
441
442 op_pin_state (get_irn_pinned)(const ir_node *node)
443 {
444         return _get_irn_pinned(node);
445 }
446
447 op_pin_state (is_irn_pinned_in_irg) (const ir_node *node)
448 {
449         return _is_irn_pinned_in_irg(node);
450 }
451
452 void set_irn_pinned(ir_node *node, op_pin_state state)
453 {
454         /* due to optimization an opt may be turned into a Tuple */
455         if (is_Tuple(node))
456                 return;
457
458         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
459         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
460
461         node->attr.except.pin_state = state;
462 }
463
464 /* Outputs a unique number for this node */
465 long get_irn_node_nr(const ir_node *node)
466 {
467         assert(node);
468         return node->node_nr;
469 }
470
471 void *(get_irn_generic_attr)(ir_node *node)
472 {
473         assert(is_ir_node(node));
474         return _get_irn_generic_attr(node);
475 }
476
477 const void *(get_irn_generic_attr_const)(const ir_node *node)
478 {
479         assert(is_ir_node(node));
480         return _get_irn_generic_attr_const(node);
481 }
482
483 unsigned (get_irn_idx)(const ir_node *node)
484 {
485         assert(is_ir_node(node));
486         return _get_irn_idx(node);
487 }
488
489 int get_irn_pred_pos(ir_node *node, ir_node *arg)
490 {
491         int i;
492         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
493                 if (get_irn_n(node, i) == arg)
494                         return i;
495         }
496         return -1;
497 }
498
499 /** manipulate fields of individual nodes **/
500
501 ir_node *(get_nodes_block)(const ir_node *node)
502 {
503         return _get_nodes_block(node);
504 }
505
506 void set_nodes_block(ir_node *node, ir_node *block)
507 {
508         assert(node->op != op_Block);
509         set_irn_n(node, -1, block);
510 }
511
512 /* Test whether arbitrary node is frame pointer, i.e. Proj(pn_Start_P_frame_base)
513  * from Start.  If so returns frame type, else Null. */
514 ir_type *is_frame_pointer(const ir_node *n)
515 {
516         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
517                 ir_node *start = get_Proj_pred(n);
518                 if (is_Start(start)) {
519                         return get_irg_frame_type(get_irn_irg(start));
520                 }
521         }
522         return NULL;
523 }
524
525 ir_node **get_Block_cfgpred_arr(ir_node *node)
526 {
527         assert(is_Block(node));
528         return (ir_node **)&(get_irn_in(node)[1]);
529 }
530
531 int (get_Block_n_cfgpreds)(const ir_node *node)
532 {
533         return _get_Block_n_cfgpreds(node);
534 }
535
536 ir_node *(get_Block_cfgpred)(const ir_node *node, int pos)
537 {
538         return _get_Block_cfgpred(node, pos);
539 }
540
541 void set_Block_cfgpred(ir_node *node, int pos, ir_node *pred)
542 {
543         assert(is_Block(node));
544         set_irn_n(node, pos, pred);
545 }
546
547 int get_Block_cfgpred_pos(const ir_node *block, const ir_node *pred)
548 {
549         int i;
550
551         for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
552                 if (get_Block_cfgpred_block(block, i) == pred)
553                         return i;
554         }
555         return -1;
556 }
557
558 ir_node *(get_Block_cfgpred_block)(const ir_node *node, int pos)
559 {
560         return _get_Block_cfgpred_block(node, pos);
561 }
562
563 int get_Block_matured(const ir_node *node)
564 {
565         assert(is_Block(node));
566         return (int)node->attr.block.is_matured;
567 }
568
569 void set_Block_matured(ir_node *node, int matured)
570 {
571         assert(is_Block(node));
572         node->attr.block.is_matured = matured;
573 }
574
575 ir_visited_t (get_Block_block_visited)(const ir_node *node)
576 {
577         return _get_Block_block_visited(node);
578 }
579
580 void (set_Block_block_visited)(ir_node *node, ir_visited_t visit)
581 {
582         _set_Block_block_visited(node, visit);
583 }
584
585 void (mark_Block_block_visited)(ir_node *node)
586 {
587         _mark_Block_block_visited(node);
588 }
589
590 int (Block_block_visited)(const ir_node *node)
591 {
592         return _Block_block_visited(node);
593 }
594
595 ir_extblk *get_Block_extbb(const ir_node *block)
596 {
597         ir_extblk *res;
598         assert(is_Block(block));
599         res = block->attr.block.extblk;
600         assert(res == NULL || is_ir_extbb(res));
601         return res;
602 }
603
604 void set_Block_extbb(ir_node *block, ir_extblk *extblk)
605 {
606         assert(is_Block(block));
607         assert(extblk == NULL || is_ir_extbb(extblk));
608         block->attr.block.extblk = extblk;
609 }
610
611 /* returns the graph of a Block. */
612 ir_graph *(get_Block_irg)(const ir_node *block)
613 {
614         return _get_Block_irg(block);
615 }
616
617 ir_entity *create_Block_entity(ir_node *block)
618 {
619         ir_entity *entity;
620         assert(is_Block(block));
621
622         entity = block->attr.block.entity;
623         if (entity == NULL) {
624                 ir_label_t  nr;
625                 ir_type   *glob;
626
627                 glob = get_glob_type();
628                 entity = new_entity(glob, id_unique("block_%u"), get_code_type());
629                 set_entity_visibility(entity, ir_visibility_local);
630                 set_entity_linkage(entity, IR_LINKAGE_CONSTANT);
631                 nr = get_irp_next_label_nr();
632                 set_entity_label(entity, nr);
633                 set_entity_compiler_generated(entity, 1);
634
635                 block->attr.block.entity = entity;
636         }
637         return entity;
638 }
639
640 ir_entity *get_Block_entity(const ir_node *block)
641 {
642         assert(is_Block(block));
643         return block->attr.block.entity;
644 }
645
646 void set_Block_entity(ir_node *block, ir_entity *entity)
647 {
648         assert(is_Block(block));
649         assert(get_entity_type(entity) == get_code_type());
650         block->attr.block.entity = entity;
651 }
652
653 int has_Block_entity(const ir_node *block)
654 {
655         return block->attr.block.entity != NULL;
656 }
657
658 ir_node *(get_Block_phis)(const ir_node *block)
659 {
660         return _get_Block_phis(block);
661 }
662
663 void (set_Block_phis)(ir_node *block, ir_node *phi)
664 {
665         _set_Block_phis(block, phi);
666 }
667
668 void (add_Block_phi)(ir_node *block, ir_node *phi)
669 {
670         _add_Block_phi(block, phi);
671 }
672
673 /* Get the Block mark (single bit). */
674 unsigned (get_Block_mark)(const ir_node *block)
675 {
676         return _get_Block_mark(block);
677 }
678
679 /* Set the Block mark (single bit). */
680 void (set_Block_mark)(ir_node *block, unsigned mark)
681 {
682         _set_Block_mark(block, mark);
683 }
684
685 int get_End_n_keepalives(const ir_node *end)
686 {
687         assert(is_End(end));
688         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
689 }
690
691 ir_node *get_End_keepalive(const ir_node *end, int pos)
692 {
693         assert(is_End(end));
694         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
695 }
696
697 void add_End_keepalive(ir_node *end, ir_node *ka)
698 {
699         assert(is_End(end));
700         add_irn_n(end, ka);
701 }
702
703 void set_End_keepalive(ir_node *end, int pos, ir_node *ka)
704 {
705         assert(is_End(end));
706         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
707 }
708
709 /* Set new keep-alives */
710 void set_End_keepalives(ir_node *end, int n, ir_node *in[])
711 {
712         size_t e;
713         int    i;
714         ir_graph *irg = get_irn_irg(end);
715
716         /* notify that edges are deleted */
717         for (e = END_KEEPALIVE_OFFSET; e < ARR_LEN(end->in) - 1; ++e) {
718                 edges_notify_edge(end, e, NULL, end->in[e + 1], irg);
719         }
720         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
721
722         for (i = 0; i < n; ++i) {
723                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
724                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
725         }
726
727         /* update irg flags */
728         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
729 }
730
731 /* Set new keep-alives from old keep-alives, skipping irn */
732 void remove_End_keepalive(ir_node *end, ir_node *irn)
733 {
734         int      n = get_End_n_keepalives(end);
735         int      i, idx;
736         ir_graph *irg;
737
738         idx = -1;
739         for (i = n -1; i >= 0; --i) {
740                 ir_node *old_ka = end->in[1 + END_KEEPALIVE_OFFSET + i];
741
742                 /* find irn */
743                 if (old_ka == irn) {
744                         idx = i;
745                         goto found;
746                 }
747         }
748         return;
749 found:
750         irg = get_irn_irg(end);
751
752         /* remove the edge */
753         edges_notify_edge(end, idx, NULL, irn, irg);
754
755         if (idx != n - 1) {
756                 /* exchange with the last one */
757                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
758                 edges_notify_edge(end, n - 1, NULL, old, irg);
759                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
760                 edges_notify_edge(end, idx, old, NULL, irg);
761         }
762         /* now n - 1 keeps, 1 block input */
763         ARR_RESIZE(ir_node *, end->in, (n - 1) + 1 + END_KEEPALIVE_OFFSET);
764
765         /* update irg flags */
766         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
767 }
768
769 /* remove Bads, NoMems and doublets from the keep-alive set */
770 void remove_End_Bads_and_doublets(ir_node *end)
771 {
772         pset_new_t keeps;
773         int        idx, n = get_End_n_keepalives(end);
774         ir_graph   *irg;
775         bool       changed = false;
776
777         if (n <= 0)
778                 return;
779
780         irg = get_irn_irg(end);
781         pset_new_init(&keeps);
782
783         for (idx = n - 1; idx >= 0; --idx) {
784                 ir_node *ka = get_End_keepalive(end, idx);
785
786                 if (is_Bad(ka) || is_NoMem(ka) || pset_new_contains(&keeps, ka)) {
787                         changed = true;
788                         /* remove the edge */
789                         edges_notify_edge(end, idx, NULL, ka, irg);
790
791                         if (idx != n - 1) {
792                                 /* exchange with the last one */
793                                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
794                                 edges_notify_edge(end, n - 1, NULL, old, irg);
795                                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
796                                 edges_notify_edge(end, idx, old, NULL, irg);
797                         }
798                         --n;
799                 } else {
800                         pset_new_insert(&keeps, ka);
801                 }
802         }
803         /* n keeps, 1 block input */
804         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
805
806         pset_new_destroy(&keeps);
807
808         if (changed) {
809                 clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
810         }
811 }
812
813 void free_End(ir_node *end)
814 {
815         assert(is_End(end));
816         end->kind = k_BAD;
817         DEL_ARR_F(end->in);
818         end->in = NULL;   /* @@@ make sure we get an error if we use the
819                              in array afterwards ... */
820 }
821
822 size_t get_Return_n_ress(const ir_node *node)
823 {
824         assert(is_Return(node));
825         return (size_t)(get_irn_arity(node) - RETURN_RESULT_OFFSET);
826 }
827
828 ir_node **get_Return_res_arr(ir_node *node)
829 {
830         assert(is_Return(node));
831         if (get_Return_n_ress(node) > 0)
832                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
833         else
834                 return NULL;
835 }
836
837 ir_node *get_Return_res(const ir_node *node, int pos)
838 {
839         assert(is_Return(node));
840         assert(pos >= 0);
841         assert(get_Return_n_ress(node) > (size_t)pos);
842         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
843 }
844
845 void set_Return_res(ir_node *node, int pos, ir_node *res)
846 {
847         assert(is_Return(node));
848         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
849 }
850
851 int (is_Const_null)(const ir_node *node)
852 {
853         return _is_Const_null(node);
854 }
855
856 int (is_Const_one)(const ir_node *node)
857 {
858         return _is_Const_one(node);
859 }
860
861 int (is_Const_all_one)(const ir_node *node)
862 {
863         return _is_Const_all_one(node);
864 }
865
866
867
868 symconst_kind get_SymConst_kind(const ir_node *node)
869 {
870         assert(is_SymConst(node));
871         return node->attr.symc.kind;
872 }
873
874 void set_SymConst_kind(ir_node *node, symconst_kind kind)
875 {
876         assert(is_SymConst(node));
877         node->attr.symc.kind = kind;
878 }
879
880 ir_type *get_SymConst_type(const ir_node *node)
881 {
882         /* the cast here is annoying, but we have to compensate for
883            the skip_tip() */
884         ir_node *irn = (ir_node *)node;
885         assert(is_SymConst(node) &&
886                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
887         return irn->attr.symc.sym.type_p;
888 }
889
890 void set_SymConst_type(ir_node *node, ir_type *tp)
891 {
892         assert(is_SymConst(node) &&
893                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
894         node->attr.symc.sym.type_p = tp;
895 }
896
897
898 /* Only to access SymConst of kind symconst_addr_ent.  Else assertion: */
899 ir_entity *get_SymConst_entity(const ir_node *node)
900 {
901         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
902         return node->attr.symc.sym.entity_p;
903 }
904
905 void set_SymConst_entity(ir_node *node, ir_entity *ent)
906 {
907         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
908         node->attr.symc.sym.entity_p  = ent;
909 }
910
911 ir_enum_const *get_SymConst_enum(const ir_node *node)
912 {
913         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
914         return node->attr.symc.sym.enum_p;
915 }
916
917 void set_SymConst_enum(ir_node *node, ir_enum_const *ec)
918 {
919         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
920         node->attr.symc.sym.enum_p  = ec;
921 }
922
923 union symconst_symbol
924 get_SymConst_symbol(const ir_node *node)
925 {
926         assert(is_SymConst(node));
927         return node->attr.symc.sym;
928 }
929
930 void set_SymConst_symbol(ir_node *node, union symconst_symbol sym)
931 {
932         assert(is_SymConst(node));
933         node->attr.symc.sym = sym;
934 }
935
936 int get_Sel_n_indexs(const ir_node *node)
937 {
938         assert(is_Sel(node));
939         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
940 }
941
942 ir_node **get_Sel_index_arr(ir_node *node)
943 {
944         assert(is_Sel(node));
945         if (get_Sel_n_indexs(node) > 0)
946                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
947         else
948                 return NULL;
949 }
950
951 ir_node *get_Sel_index(const ir_node *node, int pos)
952 {
953         assert(is_Sel(node));
954         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
955 }
956
957 void set_Sel_index(ir_node *node, int pos, ir_node *index)
958 {
959         assert(is_Sel(node));
960         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
961 }
962
963 ir_node **get_Call_param_arr(ir_node *node)
964 {
965         assert(is_Call(node));
966         return &get_irn_in(node)[CALL_PARAM_OFFSET + 1];
967 }
968
969 size_t get_Call_n_params(const ir_node *node)
970 {
971         assert(is_Call(node));
972         return (size_t) (get_irn_arity(node) - CALL_PARAM_OFFSET);
973 }
974
975 ir_node *get_Call_param(const ir_node *node, int pos)
976 {
977         assert(is_Call(node));
978         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
979 }
980
981 void set_Call_param(ir_node *node, int pos, ir_node *param)
982 {
983         assert(is_Call(node));
984         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
985 }
986
987 ir_node **get_Builtin_param_arr(ir_node *node)
988 {
989         assert(is_Builtin(node));
990         return &get_irn_in(node)[BUILTIN_PARAM_OFFSET + 1];
991 }
992
993 int get_Builtin_n_params(const ir_node *node)
994 {
995         assert(is_Builtin(node));
996         return (get_irn_arity(node) - BUILTIN_PARAM_OFFSET);
997 }
998
999 ir_node *get_Builtin_param(const ir_node *node, int pos)
1000 {
1001         assert(is_Builtin(node));
1002         return get_irn_n(node, pos + BUILTIN_PARAM_OFFSET);
1003 }
1004
1005 void set_Builtin_param(ir_node *node, int pos, ir_node *param)
1006 {
1007         assert(is_Builtin(node));
1008         set_irn_n(node, pos + BUILTIN_PARAM_OFFSET, param);
1009 }
1010
1011 /* Returns a human readable string for the ir_builtin_kind. */
1012 const char *get_builtin_kind_name(ir_builtin_kind kind)
1013 {
1014 #define X(a)    case a: return #a
1015         switch (kind) {
1016                 X(ir_bk_trap);
1017                 X(ir_bk_debugbreak);
1018                 X(ir_bk_return_address);
1019                 X(ir_bk_frame_address);
1020                 X(ir_bk_prefetch);
1021                 X(ir_bk_ffs);
1022                 X(ir_bk_clz);
1023                 X(ir_bk_ctz);
1024                 X(ir_bk_popcount);
1025                 X(ir_bk_parity);
1026                 X(ir_bk_bswap);
1027                 X(ir_bk_inport);
1028                 X(ir_bk_outport);
1029                 X(ir_bk_inner_trampoline);
1030         }
1031         return "<unknown>";
1032 #undef X
1033 }
1034
1035
1036 int Call_has_callees(const ir_node *node)
1037 {
1038         assert(is_Call(node));
1039         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
1040                 (node->attr.call.callee_arr != NULL));
1041 }
1042
1043 size_t get_Call_n_callees(const ir_node *node)
1044 {
1045   assert(is_Call(node) && node->attr.call.callee_arr);
1046   return ARR_LEN(node->attr.call.callee_arr);
1047 }
1048
1049 ir_entity *get_Call_callee(const ir_node *node, size_t pos)
1050 {
1051         assert(pos < get_Call_n_callees(node));
1052         return node->attr.call.callee_arr[pos];
1053 }
1054
1055 void set_Call_callee_arr(ir_node *node, size_t n, ir_entity ** arr)
1056 {
1057         ir_graph *irg = get_irn_irg(node);
1058
1059         assert(is_Call(node));
1060         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
1061                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, irg->obst, n);
1062         }
1063         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
1064 }
1065
1066 void remove_Call_callee_arr(ir_node *node)
1067 {
1068         assert(is_Call(node));
1069         node->attr.call.callee_arr = NULL;
1070 }
1071
1072 /* Checks for upcast.
1073  *
1074  * Returns true if the Cast node casts a class type to a super type.
1075  */
1076 int is_Cast_upcast(ir_node *node)
1077 {
1078         ir_type *totype   = get_Cast_type(node);
1079         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1080
1081         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1082         assert(fromtype);
1083
1084         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1085                 totype   = get_pointer_points_to_type(totype);
1086                 fromtype = get_pointer_points_to_type(fromtype);
1087         }
1088
1089         assert(fromtype);
1090
1091         if (!is_Class_type(totype)) return 0;
1092         return is_SubClass_of(fromtype, totype);
1093 }
1094
1095 /* Checks for downcast.
1096  *
1097  * Returns true if the Cast node casts a class type to a sub type.
1098  */
1099 int is_Cast_downcast(ir_node *node)
1100 {
1101         ir_type *totype   = get_Cast_type(node);
1102         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1103
1104         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1105         assert(fromtype);
1106
1107         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1108                 totype   = get_pointer_points_to_type(totype);
1109                 fromtype = get_pointer_points_to_type(fromtype);
1110         }
1111
1112         assert(fromtype);
1113
1114         if (!is_Class_type(totype)) return 0;
1115         return is_SubClass_of(totype, fromtype);
1116 }
1117
1118 int (is_unop)(const ir_node *node)
1119 {
1120         return _is_unop(node);
1121 }
1122
1123 ir_node *get_unop_op(const ir_node *node)
1124 {
1125         if (node->op->opar == oparity_unary)
1126                 return get_irn_n(node, node->op->op_index);
1127
1128         assert(node->op->opar == oparity_unary);
1129         return NULL;
1130 }
1131
1132 void set_unop_op(ir_node *node, ir_node *op)
1133 {
1134         if (node->op->opar == oparity_unary)
1135                 set_irn_n(node, node->op->op_index, op);
1136
1137         assert(node->op->opar == oparity_unary);
1138 }
1139
1140 int (is_binop)(const ir_node *node)
1141 {
1142         return _is_binop(node);
1143 }
1144
1145 ir_node *get_binop_left(const ir_node *node)
1146 {
1147         assert(node->op->opar == oparity_binary);
1148         return get_irn_n(node, node->op->op_index);
1149 }
1150
1151 void set_binop_left(ir_node *node, ir_node *left)
1152 {
1153         assert(node->op->opar == oparity_binary);
1154         set_irn_n(node, node->op->op_index, left);
1155 }
1156
1157 ir_node *get_binop_right(const ir_node *node)
1158 {
1159         assert(node->op->opar == oparity_binary);
1160         return get_irn_n(node, node->op->op_index + 1);
1161 }
1162
1163 void set_binop_right(ir_node *node, ir_node *right)
1164 {
1165         assert(node->op->opar == oparity_binary);
1166         set_irn_n(node, node->op->op_index + 1, right);
1167 }
1168
1169 int is_Phi0(const ir_node *n)
1170 {
1171         assert(n);
1172
1173         return ((get_irn_op(n) == op_Phi) &&
1174                 (get_irn_arity(n) == 0) &&
1175                 (get_irg_phase_state(get_irn_irg(n)) ==  phase_building));
1176 }
1177
1178 ir_node **get_Phi_preds_arr(ir_node *node)
1179 {
1180   assert(is_Phi(node));
1181   return (ir_node **)&(get_irn_in(node)[1]);
1182 }
1183
1184 int get_Phi_n_preds(const ir_node *node)
1185 {
1186         assert(is_Phi(node) || is_Phi0(node));
1187         return (get_irn_arity(node));
1188 }
1189
1190 ir_node *get_Phi_pred(const ir_node *node, int pos)
1191 {
1192         assert(is_Phi(node) || is_Phi0(node));
1193         return get_irn_n(node, pos);
1194 }
1195
1196 void set_Phi_pred(ir_node *node, int pos, ir_node *pred)
1197 {
1198         assert(is_Phi(node) || is_Phi0(node));
1199         set_irn_n(node, pos, pred);
1200 }
1201
1202 ir_node *(get_Phi_next)(const ir_node *phi)
1203 {
1204         return _get_Phi_next(phi);
1205 }
1206
1207 void (set_Phi_next)(ir_node *phi, ir_node *next)
1208 {
1209         _set_Phi_next(phi, next);
1210 }
1211
1212 int is_memop(const ir_node *node)
1213 {
1214         unsigned code = get_irn_opcode(node);
1215         return (code == iro_Load || code == iro_Store);
1216 }
1217
1218 ir_node *get_memop_mem(const ir_node *node)
1219 {
1220         assert(is_memop(node));
1221         assert(n_Load_mem == 0 && n_Store_mem == 0);
1222         return get_irn_n(node, 0);
1223 }
1224
1225 void set_memop_mem(ir_node *node, ir_node *mem)
1226 {
1227         assert(is_memop(node));
1228         assert(n_Load_mem == 0 && n_Store_mem == 0);
1229         set_irn_n(node, 0, mem);
1230 }
1231
1232 ir_node *get_memop_ptr(const ir_node *node)
1233 {
1234         assert(is_memop(node));
1235         assert(n_Load_mem == 1 && n_Store_mem == 1);
1236         return get_irn_n(node, 1);
1237 }
1238
1239 void set_memop_ptr(ir_node *node, ir_node *ptr)
1240 {
1241         assert(is_memop(node));
1242         assert(n_Load_mem == 1 && n_Store_mem == 1);
1243         set_irn_n(node, 1, ptr);
1244 }
1245
1246
1247 ir_node **get_Sync_preds_arr(ir_node *node)
1248 {
1249         assert(is_Sync(node));
1250         return (ir_node **)&(get_irn_in(node)[1]);
1251 }
1252
1253 int get_Sync_n_preds(const ir_node *node)
1254 {
1255         assert(is_Sync(node));
1256         return (get_irn_arity(node));
1257 }
1258
1259 /*
1260 void set_Sync_n_preds(ir_node *node, int n_preds)
1261 {
1262         assert(is_Sync(node));
1263 }
1264 */
1265
1266 ir_node *get_Sync_pred(const ir_node *node, int pos)
1267 {
1268         assert(is_Sync(node));
1269         return get_irn_n(node, pos);
1270 }
1271
1272 void set_Sync_pred(ir_node *node, int pos, ir_node *pred)
1273 {
1274         assert(is_Sync(node));
1275         set_irn_n(node, pos, pred);
1276 }
1277
1278 /* Add a new Sync predecessor */
1279 void add_Sync_pred(ir_node *node, ir_node *pred)
1280 {
1281         assert(is_Sync(node));
1282         add_irn_n(node, pred);
1283 }
1284
1285 int (is_arg_Proj)(const ir_node *node)
1286 {
1287         return _is_arg_Proj(node);
1288 }
1289
1290 int is_x_except_Proj(const ir_node *node)
1291 {
1292         ir_node *pred;
1293         if (!is_Proj(node))
1294                 return false;
1295         pred = get_Proj_pred(node);
1296         if (!is_fragile_op(pred))
1297                 return false;
1298         return get_Proj_proj(node) == pred->op->pn_x_except;
1299 }
1300
1301 int is_x_regular_Proj(const ir_node *node)
1302 {
1303         ir_node *pred;
1304         if (!is_Proj(node))
1305                 return false;
1306         pred = get_Proj_pred(node);
1307         if (!is_fragile_op(pred))
1308                 return false;
1309         return get_Proj_proj(node) == pred->op->pn_x_regular;
1310 }
1311
1312 void ir_set_throws_exception(ir_node *node, int throws_exception)
1313 {
1314         except_attr *attr = &node->attr.except;
1315         assert(is_fragile_op(node));
1316         attr->throws_exception = throws_exception;
1317 }
1318
1319 int ir_throws_exception(const ir_node *node)
1320 {
1321         const except_attr *attr = &node->attr.except;
1322         assert(is_fragile_op(node));
1323         return attr->throws_exception;
1324 }
1325
1326 ir_node **get_Tuple_preds_arr(ir_node *node)
1327 {
1328         assert(is_Tuple(node));
1329         return (ir_node **)&(get_irn_in(node)[1]);
1330 }
1331
1332 int get_Tuple_n_preds(const ir_node *node)
1333 {
1334         assert(is_Tuple(node));
1335         return get_irn_arity(node);
1336 }
1337
1338 ir_node *get_Tuple_pred(const ir_node *node, int pos)
1339 {
1340   assert(is_Tuple(node));
1341   return get_irn_n(node, pos);
1342 }
1343
1344 void set_Tuple_pred(ir_node *node, int pos, ir_node *pred)
1345 {
1346         assert(is_Tuple(node));
1347         set_irn_n(node, pos, pred);
1348 }
1349
1350 int get_ASM_n_input_constraints(const ir_node *node)
1351 {
1352         assert(is_ASM(node));
1353         return ARR_LEN(node->attr.assem.input_constraints);
1354 }
1355
1356 int get_ASM_n_output_constraints(const ir_node *node)
1357 {
1358         assert(is_ASM(node));
1359         return ARR_LEN(node->attr.assem.output_constraints);
1360 }
1361
1362 int get_ASM_n_clobbers(const ir_node *node)
1363 {
1364         assert(is_ASM(node));
1365         return ARR_LEN(node->attr.assem.clobbers);
1366 }
1367
1368 /* returns the graph of a node */
1369 ir_graph *(get_irn_irg)(const ir_node *node)
1370 {
1371         return _get_irn_irg(node);
1372 }
1373
1374
1375 /*----------------------------------------------------------------*/
1376 /*  Auxiliary routines                                            */
1377 /*----------------------------------------------------------------*/
1378
1379 ir_node *skip_Proj(ir_node *node)
1380 {
1381         /* don't assert node !!! */
1382         if (node == NULL)
1383                 return NULL;
1384
1385         if (is_Proj(node))
1386                 node = get_Proj_pred(node);
1387
1388         return node;
1389 }
1390
1391 const ir_node *
1392 skip_Proj_const(const ir_node *node)
1393 {
1394         /* don't assert node !!! */
1395         if (node == NULL)
1396                 return NULL;
1397
1398         if (is_Proj(node))
1399                 node = get_Proj_pred(node);
1400
1401         return node;
1402 }
1403
1404 ir_node *skip_Tuple(ir_node *node)
1405 {
1406   ir_node *pred;
1407
1408 restart:
1409         if (is_Proj(node)) {
1410             pred = get_Proj_pred(node);
1411
1412                 if (is_Proj(pred)) { /* nested Tuple ? */
1413                     pred = skip_Tuple(pred);
1414
1415                         if (is_Tuple(pred)) {
1416                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
1417                                 goto restart;
1418                         }
1419                 } else if (is_Tuple(pred)) {
1420                         node = get_Tuple_pred(pred, get_Proj_proj(node));
1421                         goto restart;
1422                 }
1423         }
1424         return node;
1425 }
1426
1427 /* returns operand of node if node is a Cast */
1428 ir_node *skip_Cast(ir_node *node)
1429 {
1430         if (is_Cast(node))
1431                 return get_Cast_op(node);
1432         return node;
1433 }
1434
1435 /* returns operand of node if node is a Cast */
1436 const ir_node *skip_Cast_const(const ir_node *node)
1437 {
1438         if (is_Cast(node))
1439                 return get_Cast_op(node);
1440         return node;
1441 }
1442
1443 /* returns operand of node if node is a Pin */
1444 ir_node *skip_Pin(ir_node *node)
1445 {
1446         if (is_Pin(node))
1447                 return get_Pin_op(node);
1448         return node;
1449 }
1450
1451 /* returns operand of node if node is a Confirm */
1452 ir_node *skip_Confirm(ir_node *node)
1453 {
1454         if (is_Confirm(node))
1455                 return get_Confirm_value(node);
1456         return node;
1457 }
1458
1459 /* skip all high-level ops */
1460 ir_node *skip_HighLevel_ops(ir_node *node)
1461 {
1462         while (is_op_highlevel(get_irn_op(node))) {
1463                 node = get_irn_n(node, 0);
1464         }
1465         return node;
1466 }
1467
1468
1469 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
1470  * than any other approach, as Id chains are resolved and all point to the real node, or
1471  * all id's are self loops.
1472  *
1473  * Note: This function takes 10% of mostly ANY the compiler run, so it's
1474  * a little bit "hand optimized".
1475  */
1476 ir_node *skip_Id(ir_node *node)
1477 {
1478         ir_node *pred;
1479         /* don't assert node !!! */
1480
1481         if (!node || (node->op != op_Id)) return node;
1482
1483         /* Don't use get_Id_pred():  We get into an endless loop for
1484            self-referencing Ids. */
1485         pred = node->in[0+1];
1486
1487         if (pred->op != op_Id) return pred;
1488
1489         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
1490                 ir_node *rem_pred, *res;
1491
1492                 if (pred->op != op_Id) return pred; /* shortcut */
1493                 rem_pred = pred;
1494
1495                 assert(get_irn_arity (node) > 0);
1496
1497                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
1498                 res = skip_Id(rem_pred);
1499                 if (is_Id(res)) /* self-loop */ return node;
1500
1501                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
1502                 return res;
1503         } else {
1504                 return node;
1505         }
1506 }
1507
1508 int (is_strictConv)(const ir_node *node)
1509 {
1510         return _is_strictConv(node);
1511 }
1512
1513 /* Returns true if node is a SymConst node with kind symconst_addr_ent. */
1514 int (is_SymConst_addr_ent)(const ir_node *node)
1515 {
1516         return _is_SymConst_addr_ent(node);
1517 }
1518
1519 /* Returns true if the operation manipulates control flow. */
1520 int is_cfop(const ir_node *node)
1521 {
1522         if (is_fragile_op(node) && ir_throws_exception(node))
1523                 return true;
1524
1525         return is_op_cfopcode(get_irn_op(node));
1526 }
1527
1528 int is_unknown_jump(const ir_node *node)
1529 {
1530         return is_op_unknown_jump(get_irn_op(node));
1531 }
1532
1533 /* Returns true if the operation can change the control flow because
1534    of an exception. */
1535 int is_fragile_op(const ir_node *node)
1536 {
1537         return is_op_fragile(get_irn_op(node));
1538 }
1539
1540 /* Returns the memory operand of fragile operations. */
1541 ir_node *get_fragile_op_mem(ir_node *node)
1542 {
1543         assert(node && is_fragile_op(node));
1544         return get_irn_n(node, node->op->fragile_mem_index);
1545 }
1546
1547 /* Returns true if the operation is a forking control flow operation. */
1548 int (is_irn_forking)(const ir_node *node)
1549 {
1550         return _is_irn_forking(node);
1551 }
1552
1553 void (copy_node_attr)(ir_graph *irg, const ir_node *old_node, ir_node *new_node)
1554 {
1555         _copy_node_attr(irg, old_node, new_node);
1556 }
1557
1558 /* Return the type attribute of a node n (SymConst, Call, Alloc, Free,
1559    Cast) or NULL.*/
1560 ir_type *(get_irn_type_attr)(ir_node *node)
1561 {
1562         return _get_irn_type_attr(node);
1563 }
1564
1565 /* Return the entity attribute of a node n (SymConst, Sel) or NULL. */
1566 ir_entity *(get_irn_entity_attr)(ir_node *node)
1567 {
1568         return _get_irn_entity_attr(node);
1569 }
1570
1571 /* Returns non-zero for constant-like nodes. */
1572 int (is_irn_constlike)(const ir_node *node)
1573 {
1574         return _is_irn_constlike(node);
1575 }
1576
1577 /*
1578  * Returns non-zero for nodes that are allowed to have keep-alives and
1579  * are neither Block nor PhiM.
1580  */
1581 int (is_irn_keep)(const ir_node *node)
1582 {
1583         return _is_irn_keep(node);
1584 }
1585
1586 /*
1587  * Returns non-zero for nodes that are always placed in the start block.
1588  */
1589 int (is_irn_start_block_placed)(const ir_node *node)
1590 {
1591         return _is_irn_start_block_placed(node);
1592 }
1593
1594 /* Returns non-zero for nodes that are machine operations. */
1595 int (is_irn_machine_op)(const ir_node *node)
1596 {
1597         return _is_irn_machine_op(node);
1598 }
1599
1600 /* Returns non-zero for nodes that are machine operands. */
1601 int (is_irn_machine_operand)(const ir_node *node)
1602 {
1603         return _is_irn_machine_operand(node);
1604 }
1605
1606 /* Returns non-zero for nodes that have the n'th user machine flag set. */
1607 int (is_irn_machine_user)(const ir_node *node, unsigned n)
1608 {
1609         return _is_irn_machine_user(node, n);
1610 }
1611
1612 /* Returns non-zero for nodes that are CSE neutral to its users. */
1613 int (is_irn_cse_neutral)(const ir_node *node)
1614 {
1615         return _is_irn_cse_neutral(node);
1616 }
1617
1618 /* Gets the string representation of the jump prediction .*/
1619 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred)
1620 {
1621 #define X(a)    case a: return #a
1622         switch (pred) {
1623                 X(COND_JMP_PRED_NONE);
1624                 X(COND_JMP_PRED_TRUE);
1625                 X(COND_JMP_PRED_FALSE);
1626         }
1627         return "<unknown>";
1628 #undef X
1629 }
1630
1631 /** Return the attribute type of a SymConst node if exists */
1632 static ir_type *get_SymConst_attr_type(const ir_node *self)
1633 {
1634         symconst_kind kind = get_SymConst_kind(self);
1635         if (SYMCONST_HAS_TYPE(kind))
1636                 return get_SymConst_type(self);
1637         return NULL;
1638 }
1639
1640 /** Return the attribute entity of a SymConst node if exists */
1641 static ir_entity *get_SymConst_attr_entity(const ir_node *self)
1642 {
1643         symconst_kind kind = get_SymConst_kind(self);
1644         if (SYMCONST_HAS_ENT(kind))
1645                 return get_SymConst_entity(self);
1646         return NULL;
1647 }
1648
1649 /** the get_type_attr operation must be always implemented */
1650 static ir_type *get_Null_type(const ir_node *n)
1651 {
1652         (void) n;
1653         return firm_unknown_type;
1654 }
1655
1656 /* Sets the get_type operation for an ir_op_ops. */
1657 ir_op_ops *firm_set_default_get_type_attr(unsigned code, ir_op_ops *ops)
1658 {
1659         switch (code) {
1660         case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
1661         case iro_Call:     ops->get_type_attr = get_Call_type; break;
1662         case iro_Alloc:    ops->get_type_attr = get_Alloc_type; break;
1663         case iro_Free:     ops->get_type_attr = get_Free_type; break;
1664         case iro_Cast:     ops->get_type_attr = get_Cast_type; break;
1665         default:
1666                 /* not allowed to be NULL */
1667                 if (! ops->get_type_attr)
1668                         ops->get_type_attr = get_Null_type;
1669                 break;
1670         }
1671         return ops;
1672 }
1673
1674 /** the get_entity_attr operation must be always implemented */
1675 static ir_entity *get_Null_ent(const ir_node *n)
1676 {
1677         (void) n;
1678         return NULL;
1679 }
1680
1681 /* Sets the get_type operation for an ir_op_ops. */
1682 ir_op_ops *firm_set_default_get_entity_attr(unsigned code, ir_op_ops *ops)
1683 {
1684         switch (code) {
1685         case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
1686         case iro_Sel:      ops->get_entity_attr = get_Sel_entity; break;
1687         default:
1688                 /* not allowed to be NULL */
1689                 if (! ops->get_entity_attr)
1690                         ops->get_entity_attr = get_Null_ent;
1691                 break;
1692         }
1693         return ops;
1694 }
1695
1696 /* Sets the debug information of a node. */
1697 void (set_irn_dbg_info)(ir_node *n, dbg_info *db)
1698 {
1699         _set_irn_dbg_info(n, db);
1700 }
1701
1702 /**
1703  * Returns the debug information of an node.
1704  *
1705  * @param n   The node.
1706  */
1707 dbg_info *(get_irn_dbg_info)(const ir_node *n)
1708 {
1709         return _get_irn_dbg_info(n);
1710 }
1711
1712 /*
1713  * Calculate a hash value of a node.
1714  */
1715 unsigned firm_default_hash(const ir_node *node)
1716 {
1717         unsigned h;
1718         int i, irn_arity;
1719
1720         /* hash table value = 9*(9*(9*(9*(9*arity+in[0])+in[1])+ ...)+mode)+code */
1721         h = irn_arity = get_irn_arity(node);
1722
1723         /* consider all in nodes... except the block if not a control flow. */
1724         for (i = is_cfop(node) ? -1 : 0;  i < irn_arity;  ++i) {
1725                 ir_node *pred = get_irn_n(node, i);
1726                 if (is_irn_cse_neutral(pred))
1727                         h *= 9;
1728                 else
1729                         h = 9*h + HASH_PTR(pred);
1730         }
1731
1732         /* ...mode,... */
1733         h = 9*h + HASH_PTR(get_irn_mode(node));
1734         /* ...and code */
1735         h = 9*h + HASH_PTR(get_irn_op(node));
1736
1737         return h;
1738 }  /* firm_default_hash */
1739
1740 /* include generated code */
1741 #include "gen_irnode.c.inl"