- Split bearch.h correctly into bearch.h and bearch_t.h
[libfirm] / ir / be / ia32 / ia32_transform.c
1 /**
2  * This file implements the IR transformation from firm into ia32-Firm.
3  * @author Christian Wuerdig
4  * $Id$
5  */
6 #ifdef HAVE_CONFIG_H
7 #include "config.h"
8 #endif
9
10 #include <limits.h>
11
12 #include "irargs_t.h"
13 #include "irnode_t.h"
14 #include "irgraph_t.h"
15 #include "irmode_t.h"
16 #include "iropt_t.h"
17 #include "irop_t.h"
18 #include "irprog_t.h"
19 #include "iredges_t.h"
20 #include "irgmod.h"
21 #include "irvrfy.h"
22 #include "ircons.h"
23 #include "irgwalk.h"
24 #include "dbginfo.h"
25 #include "irprintf.h"
26 #include "debug.h"
27 #include "irdom.h"
28 #include "type.h"
29 #include "entity.h"
30 #include "archop.h"     /* we need this for Min and Max nodes */
31 #include "error.h"
32 #include "cgana.h"
33 #include "irouts.h"
34 #include "trouts.h"
35 #include "irhooks.h"
36
37 #include "../benode_t.h"
38 #include "../besched.h"
39 #include "../beabi.h"
40 #include "../beutil.h"
41 #include "../beirg_t.h"
42
43 #include "bearch_ia32_t.h"
44 #include "ia32_nodes_attr.h"
45 #include "ia32_transform.h"
46 #include "ia32_new_nodes.h"
47 #include "ia32_map_regs.h"
48 #include "ia32_dbg_stat.h"
49 #include "ia32_optimize.h"
50 #include "ia32_util.h"
51
52 #include "gen_ia32_regalloc_if.h"
53
54 #define SFP_SIGN "0x80000000"
55 #define DFP_SIGN "0x8000000000000000"
56 #define SFP_ABS  "0x7FFFFFFF"
57 #define DFP_ABS  "0x7FFFFFFFFFFFFFFF"
58
59 #define TP_SFP_SIGN "ia32_sfp_sign"
60 #define TP_DFP_SIGN "ia32_dfp_sign"
61 #define TP_SFP_ABS  "ia32_sfp_abs"
62 #define TP_DFP_ABS  "ia32_dfp_abs"
63
64 #define ENT_SFP_SIGN "IA32_SFP_SIGN"
65 #define ENT_DFP_SIGN "IA32_DFP_SIGN"
66 #define ENT_SFP_ABS  "IA32_SFP_ABS"
67 #define ENT_DFP_ABS  "IA32_DFP_ABS"
68
69 #define mode_vfp        (ia32_reg_classes[CLASS_ia32_vfp].mode)
70 #define mode_xmm    (ia32_reg_classes[CLASS_ia32_xmm].mode)
71
72 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
73
74 typedef struct ia32_transform_env_t {
75         ir_graph          *irg;        /**< The irg, the node should be created in */
76         ia32_code_gen_t   *cg;         /**< The code generator */
77         int               visited;     /**< visited count that indicates whether a
78                                             node is already transformed */
79         pdeq              *worklist;   /**< worklist of nodes that still need to be
80                                                                         transformed */
81         ir_node          **old_anchors;/**< the list of anchors nodes in the old irg*/
82 } ia32_transform_env_t;
83
84 extern ir_op *get_op_Mulh(void);
85
86 typedef ir_node *construct_binop_func(dbg_info *db, ir_graph *irg,
87         ir_node *block, ir_node *base, ir_node *index, ir_node *op1,
88         ir_node *op2, ir_node *mem);
89
90 typedef ir_node *construct_unop_func(dbg_info *db, ir_graph *irg,
91         ir_node *block, ir_node *base, ir_node *index, ir_node *op,
92         ir_node *mem);
93
94 typedef ir_node *(transform_func)(ia32_transform_env_t *env, ir_node *node);
95
96 /****************************************************************************************************
97  *                  _        _                        __                           _   _
98  *                 | |      | |                      / _|                         | | (_)
99  *  _ __   ___   __| | ___  | |_ _ __ __ _ _ __  ___| |_ ___  _ __ _ __ ___   __ _| |_ _  ___  _ __
100  * | '_ \ / _ \ / _` |/ _ \ | __| '__/ _` | '_ \/ __|  _/ _ \| '__| '_ ` _ \ / _` | __| |/ _ \| '_ \
101  * | | | | (_) | (_| |  __/ | |_| | | (_| | | | \__ \ || (_) | |  | | | | | | (_| | |_| | (_) | | | |
102  * |_| |_|\___/ \__,_|\___|  \__|_|  \__,_|_| |_|___/_| \___/|_|  |_| |_| |_|\__,_|\__|_|\___/|_| |_|
103  *
104  ****************************************************************************************************/
105
106 static ir_node *duplicate_node(ia32_transform_env_t *env, ir_node *node);
107 static ir_node *transform_node(ia32_transform_env_t *env, ir_node *node);
108 static void duplicate_deps(ia32_transform_env_t *env, ir_node *old_node,
109                            ir_node *new_node);
110
111 static INLINE void set_new_node(ir_node *old_node, ir_node *new_node)
112 {
113         set_irn_link(old_node, new_node);
114 }
115
116 static INLINE ir_node *get_new_node(ir_node *old_node)
117 {
118         assert(irn_visited(old_node));
119         return (ir_node*) get_irn_link(old_node);
120 }
121
122 /**
123  * Returns 1 if irn is a Const representing 0, 0 otherwise
124  */
125 static INLINE int is_ia32_Const_0(ir_node *irn) {
126         return is_ia32_irn(irn) && is_ia32_Const(irn) && get_ia32_immop_type(irn) == ia32_ImmConst
127                && tarval_is_null(get_ia32_Immop_tarval(irn));
128 }
129
130 /**
131  * Returns 1 if irn is a Const representing 1, 0 otherwise
132  */
133 static INLINE int is_ia32_Const_1(ir_node *irn) {
134         return is_ia32_irn(irn) && is_ia32_Const(irn) && get_ia32_immop_type(irn) == ia32_ImmConst
135                && tarval_is_one(get_ia32_Immop_tarval(irn));
136 }
137
138 /**
139  * Collects all Projs of a node into the node array. Index is the projnum.
140  * BEWARE: The caller has to assure the appropriate array size!
141  */
142 static void ia32_collect_Projs(ir_node *irn, ir_node **projs, int size) {
143         const ir_edge_t *edge;
144         assert(get_irn_mode(irn) == mode_T && "need mode_T");
145
146         memset(projs, 0, size * sizeof(projs[0]));
147
148         foreach_out_edge(irn, edge) {
149                 ir_node *proj = get_edge_src_irn(edge);
150                 int proj_proj = get_Proj_proj(proj);
151                 assert(proj_proj < size);
152                 projs[proj_proj] = proj;
153         }
154 }
155
156 /**
157  * Renumbers the proj having pn_old in the array tp pn_new
158  * and removes the proj from the array.
159  */
160 static INLINE void ia32_renumber_Proj(ir_node **projs, long pn_old, long pn_new) {
161         fprintf(stderr, "Warning: renumber_Proj used!\n");
162         if (projs[pn_old]) {
163                 set_Proj_proj(projs[pn_old], pn_new);
164                 projs[pn_old] = NULL;
165         }
166 }
167
168 /**
169  * creates a unique ident by adding a number to a tag
170  *
171  * @param tag   the tag string, must contain a %d if a number
172  *              should be added
173  */
174 static ident *unique_id(const char *tag)
175 {
176         static unsigned id = 0;
177         char str[256];
178
179         snprintf(str, sizeof(str), tag, ++id);
180         return new_id_from_str(str);
181 }
182
183 /**
184  * Get a primitive type for a mode.
185  */
186 static ir_type *get_prim_type(pmap *types, ir_mode *mode)
187 {
188         pmap_entry *e = pmap_find(types, mode);
189         ir_type *res;
190
191         if (! e) {
192                 char buf[64];
193                 snprintf(buf, sizeof(buf), "prim_type_%s", get_mode_name(mode));
194                 res = new_type_primitive(new_id_from_str(buf), mode);
195                 pmap_insert(types, mode, res);
196         }
197         else
198                 res = e->value;
199         return res;
200 }
201
202 /**
203  * Get an entity that is initialized with a tarval
204  */
205 static ir_entity *get_entity_for_tv(ia32_code_gen_t *cg, ir_node *cnst)
206 {
207         tarval *tv    = get_Const_tarval(cnst);
208         pmap_entry *e = pmap_find(cg->isa->tv_ent, tv);
209         ir_entity *res;
210         ir_graph *rem;
211
212         if (! e) {
213                 ir_mode *mode = get_irn_mode(cnst);
214                 ir_type *tp = get_Const_type(cnst);
215                 if (tp == firm_unknown_type)
216                         tp = get_prim_type(cg->isa->types, mode);
217
218                 res = new_entity(get_glob_type(), unique_id(".LC%u"), tp);
219
220                 set_entity_ld_ident(res, get_entity_ident(res));
221                 set_entity_visibility(res, visibility_local);
222                 set_entity_variability(res, variability_constant);
223                 set_entity_allocation(res, allocation_static);
224
225                  /* we create a new entity here: It's initialization must resist on the
226                     const code irg */
227                 rem = current_ir_graph;
228                 current_ir_graph = get_const_code_irg();
229                 set_atomic_ent_value(res, new_Const_type(tv, tp));
230                 current_ir_graph = rem;
231
232                 pmap_insert(cg->isa->tv_ent, tv, res);
233         } else {
234                 res = e->value;
235         }
236
237         return res;
238 }
239
240 /**
241  * Transforms a Const.
242  */
243 static ir_node *gen_Const(ia32_transform_env_t *env, ir_node *node) {
244         ir_graph        *irg   = env->irg;
245         dbg_info        *dbgi   = get_irn_dbg_info(node);
246         ir_mode         *mode  = get_irn_mode(node);
247         ir_node         *block = transform_node(env, get_nodes_block(node));
248
249         if (mode_is_float(mode)) {
250                 ir_node *res = NULL;
251                 ir_entity *floatent;
252                 ir_node *noreg = ia32_new_NoReg_gp(env->cg);
253                 ir_node *nomem = new_NoMem();
254                 ir_node *load;
255
256                 FP_USED(env->cg);
257                 if (! USE_SSE2(env->cg)) {
258                         cnst_classify_t clss = classify_Const(node);
259
260                         if (clss == CNST_NULL) {
261                                 load = new_rd_ia32_vfldz(dbgi, irg, block);
262                                 res  = load;
263                         } else if (clss == CNST_ONE) {
264                                 load = new_rd_ia32_vfld1(dbgi, irg, block);
265                                 res  = load;
266                         } else {
267                                 floatent = get_entity_for_tv(env->cg, node);
268
269                                 load     = new_rd_ia32_vfld(dbgi, irg, block, noreg, noreg, nomem);
270                                 set_ia32_am_support(load, ia32_am_Source);
271                                 set_ia32_op_type(load, ia32_AddrModeS);
272                                 set_ia32_am_flavour(load, ia32_am_N);
273                                 set_ia32_am_sc(load, floatent);
274                                 res      = new_r_Proj(irg, block, load, mode_vfp, pn_ia32_vfld_res);
275                         }
276                         set_ia32_ls_mode(load, mode);
277                 } else {
278                         floatent = get_entity_for_tv(env->cg, node);
279
280                         load     = new_rd_ia32_xLoad(dbgi, irg, block, noreg, noreg, nomem);
281                         set_ia32_am_support(load, ia32_am_Source);
282                         set_ia32_op_type(load, ia32_AddrModeS);
283                         set_ia32_am_flavour(load, ia32_am_N);
284                         set_ia32_am_sc(load, floatent);
285                         set_ia32_ls_mode(load, mode);
286
287                         res = new_r_Proj(irg, block, load, mode_xmm, pn_ia32_xLoad_res);
288                 }
289
290                 SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env->cg, node));
291
292                 /* Const Nodes before the initial IncSP are a bad idea, because
293                  * they could be spilled and we have no SP ready at that point yet
294                  */
295                 if (get_irg_start_block(irg) == block) {
296                         add_irn_dep(load, get_irg_frame(irg));
297                 }
298
299                 SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env->cg, node));
300                 return res;
301         } else {
302                 ir_node *cnst = new_rd_ia32_Const(dbgi, irg, block);
303
304                 /* see above */
305                 if (get_irg_start_block(irg) == block) {
306                         add_irn_dep(cnst, get_irg_frame(irg));
307                 }
308
309                 set_ia32_Const_attr(cnst, node);
310                 SET_IA32_ORIG_NODE(cnst, ia32_get_old_node_name(env->cg, node));
311                 return cnst;
312         }
313
314         assert(0);
315         return new_r_Bad(irg);
316 }
317
318 /**
319  * Transforms a SymConst.
320  */
321 static ir_node *gen_SymConst(ia32_transform_env_t *env, ir_node *node) {
322         ir_graph *irg   = env->irg;
323         dbg_info *dbgi   = get_irn_dbg_info(node);
324         ir_mode  *mode  = get_irn_mode(node);
325         ir_node  *block = transform_node(env, get_nodes_block(node));
326         ir_node  *cnst;
327
328         if (mode_is_float(mode)) {
329                 FP_USED(env->cg);
330                 if (USE_SSE2(env->cg))
331                         cnst = new_rd_ia32_xConst(dbgi, irg, block);
332                 else
333                         cnst = new_rd_ia32_vfConst(dbgi, irg, block);
334                 set_ia32_ls_mode(cnst, mode);
335         } else {
336                 cnst = new_rd_ia32_Const(dbgi, irg, block);
337         }
338
339         /* Const Nodes before the initial IncSP are a bad idea, because
340          * they could be spilled and we have no SP ready at that point yet
341          */
342         if (get_irg_start_block(irg) == block) {
343                 add_irn_dep(cnst, get_irg_frame(irg));
344         }
345
346         set_ia32_Const_attr(cnst, node);
347         SET_IA32_ORIG_NODE(cnst, ia32_get_old_node_name(env->cg, node));
348
349         return cnst;
350 }
351
352 /**
353  * SSE convert of an integer node into a floating point node.
354  */
355 static ir_node *gen_sse_conv_int2float(ia32_code_gen_t *cg, dbg_info *dbgi,
356                                        ir_graph *irg, ir_node *block,
357                                        ir_node *in, ir_node *old_node, ir_mode *tgt_mode)
358 {
359         ir_node *noreg = ia32_new_NoReg_gp(cg);
360         ir_node *nomem = new_rd_NoMem(irg);
361         ir_node *old_pred = get_Cmp_left(old_node);
362         ir_mode *in_mode = get_irn_mode(old_pred);
363         int in_bits = get_mode_size_bits(in_mode);
364
365         ir_node *conv = new_rd_ia32_Conv_I2FP(dbgi, irg, block, noreg, noreg, in, nomem);
366         set_ia32_ls_mode(conv, tgt_mode);
367         if(in_bits == 32) {
368                 set_ia32_am_support(conv, ia32_am_Source);
369         }
370         SET_IA32_ORIG_NODE(conv, ia32_get_old_node_name(cg, old_node));
371
372         return conv;
373 }
374
375 /**
376  * SSE convert of an float node into a double node.
377  */
378 static ir_node *gen_sse_conv_f2d(ia32_code_gen_t *cg, dbg_info *dbgi,
379                                  ir_graph *irg, ir_node *block,
380                                  ir_node *in, ir_node *old_node)
381 {
382         ir_node *noreg = ia32_new_NoReg_gp(cg);
383         ir_node *nomem = new_rd_NoMem(irg);
384
385         ir_node *conv = new_rd_ia32_Conv_FP2FP(dbgi, irg, block, noreg, noreg, in, nomem);
386         set_ia32_am_support(conv, ia32_am_Source);
387         set_ia32_ls_mode(conv, mode_xmm);
388         SET_IA32_ORIG_NODE(conv, ia32_get_old_node_name(cg, old_node));
389
390         return conv;
391 }
392
393 /* Generates an entity for a known FP const (used for FP Neg + Abs) */
394 ir_entity *ia32_gen_fp_known_const(ia32_known_const_t kct) {
395         static const struct {
396                 const char *tp_name;
397                 const char *ent_name;
398                 const char *cnst_str;
399         } names [ia32_known_const_max] = {
400                 { TP_SFP_SIGN, ENT_SFP_SIGN, SFP_SIGN },        /* ia32_SSIGN */
401                 { TP_DFP_SIGN, ENT_DFP_SIGN, DFP_SIGN },        /* ia32_DSIGN */
402                 { TP_SFP_ABS,  ENT_SFP_ABS,  SFP_ABS },         /* ia32_SABS */
403                 { TP_DFP_ABS,  ENT_DFP_ABS,  DFP_ABS }          /* ia32_DABS */
404         };
405         static ir_entity *ent_cache[ia32_known_const_max];
406
407         const char    *tp_name, *ent_name, *cnst_str;
408         ir_type       *tp;
409         ir_node       *cnst;
410         ir_graph      *rem;
411         ir_entity     *ent;
412         tarval        *tv;
413         ir_mode       *mode;
414
415         ent_name = names[kct].ent_name;
416         if (! ent_cache[kct]) {
417                 tp_name  = names[kct].tp_name;
418                 cnst_str = names[kct].cnst_str;
419
420                 //mode = kct == ia32_SSIGN || kct == ia32_SABS ? mode_Iu : mode_Lu;
421                 mode = mode_xmm;
422                 tv  = new_tarval_from_str(cnst_str, strlen(cnst_str), mode);
423                 tp  = new_type_primitive(new_id_from_str(tp_name), mode);
424                 ent = new_entity(get_glob_type(), new_id_from_str(ent_name), tp);
425
426                 set_entity_ld_ident(ent, get_entity_ident(ent));
427                 set_entity_visibility(ent, visibility_local);
428                 set_entity_variability(ent, variability_constant);
429                 set_entity_allocation(ent, allocation_static);
430
431                 /* we create a new entity here: It's initialization must resist on the
432                     const code irg */
433                 rem = current_ir_graph;
434                 current_ir_graph = get_const_code_irg();
435                 cnst = new_Const(mode, tv);
436                 current_ir_graph = rem;
437
438                 set_atomic_ent_value(ent, cnst);
439
440                 /* cache the entry */
441                 ent_cache[kct] = ent;
442         }
443
444         return ent_cache[kct];
445 }
446
447 #ifndef NDEBUG
448 /**
449  * Prints the old node name on cg obst and returns a pointer to it.
450  */
451 const char *ia32_get_old_node_name(ia32_code_gen_t *cg, ir_node *irn) {
452         ia32_isa_t *isa = (ia32_isa_t *)cg->arch_env->isa;
453
454         lc_eoprintf(firm_get_arg_env(), isa->name_obst, "%+F", irn);
455         obstack_1grow(isa->name_obst, 0);
456         return obstack_finish(isa->name_obst);
457 }
458 #endif /* NDEBUG */
459
460 /* determine if one operator is an Imm */
461 static ir_node *get_immediate_op(ir_node *op1, ir_node *op2) {
462         if (op1) {
463                 return is_ia32_Cnst(op1) ? op1 : (is_ia32_Cnst(op2) ? op2 : NULL);
464         } else {
465                 return is_ia32_Cnst(op2) ? op2 : NULL;
466         }
467 }
468
469 /* determine if one operator is not an Imm */
470 static ir_node *get_expr_op(ir_node *op1, ir_node *op2) {
471         return !is_ia32_Cnst(op1) ? op1 : (!is_ia32_Cnst(op2) ? op2 : NULL);
472 }
473
474 static void fold_immediate(ia32_transform_env_t *env, ir_node *node, int in1, int in2) {
475         ir_node *left;
476         ir_node *right;
477
478         if(! (env->cg->opt & IA32_OPT_IMMOPS))
479                 return;
480
481         left = get_irn_n(node, in1);
482         right = get_irn_n(node, in2);
483         if(!is_ia32_Cnst(right) && is_ia32_Cnst(left)) {
484                 /* we can only set right operand to immediate */
485                 if(!is_ia32_commutative(node))
486                         return;
487                 /* exchange left/right */
488                 set_irn_n(node, in1, right);
489                 set_irn_n(node, in2, ia32_get_admissible_noreg(env->cg, node, in2));
490                 copy_ia32_Immop_attr(node, left);
491         } else if(is_ia32_Cnst(right)) {
492                 set_irn_n(node, in2, ia32_get_admissible_noreg(env->cg, node, in2));
493                 copy_ia32_Immop_attr(node, right);
494         } else {
495                 return;
496         }
497
498         set_ia32_am_support(node, get_ia32_am_support(node) & ~ia32_am_Source);
499 }
500
501 /**
502  * Construct a standard binary operation, set AM and immediate if required.
503  *
504  * @param env   The transformation environment
505  * @param op1   The first operand
506  * @param op2   The second operand
507  * @param func  The node constructor function
508  * @return The constructed ia32 node.
509  */
510 static ir_node *gen_binop(ia32_transform_env_t *env, ir_node *node,
511                           ir_node *op1, ir_node *op2,
512                           construct_binop_func *func) {
513         ir_node  *new_node = NULL;
514         ir_graph *irg      = env->irg;
515         dbg_info *dbgi      = get_irn_dbg_info(node);
516         ir_node  *block    = transform_node(env, get_nodes_block(node));
517         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
518         ir_node  *nomem    = new_NoMem();
519         ir_node  *new_op1  = transform_node(env, op1);
520         ir_node  *new_op2  = transform_node(env, op2);
521
522         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2, nomem);
523         if(func == new_rd_ia32_IMul) {
524                 set_ia32_am_support(new_node, ia32_am_Source);
525         } else {
526                 set_ia32_am_support(new_node, ia32_am_Full);
527         }
528
529         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
530         if (is_op_commutative(get_irn_op(node))) {
531                 set_ia32_commutative(new_node);
532         }
533         fold_immediate(env, new_node, 2, 3);
534
535         return new_node;
536 }
537
538 /**
539  * Construct a standard binary operation, set AM and immediate if required.
540  *
541  * @param env   The transformation environment
542  * @param op1   The first operand
543  * @param op2   The second operand
544  * @param func  The node constructor function
545  * @return The constructed ia32 node.
546  */
547 static ir_node *gen_binop_float(ia32_transform_env_t *env, ir_node *node,
548                                 ir_node *op1, ir_node *op2,
549                                 construct_binop_func *func)
550 {
551         ir_node  *new_node = NULL;
552         dbg_info *dbgi      = get_irn_dbg_info(node);
553         ir_graph *irg      = env->irg;
554         ir_mode  *mode     = get_irn_mode(node);
555         ir_node  *block    = transform_node(env, get_nodes_block(node));
556         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
557         ir_node  *nomem    = new_NoMem();
558         ir_node  *new_op1  = transform_node(env, op1);
559         ir_node  *new_op2  = transform_node(env, op2);
560
561         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2, nomem);
562         set_ia32_am_support(new_node, ia32_am_Source);
563         if (is_op_commutative(get_irn_op(node))) {
564                 set_ia32_commutative(new_node);
565         }
566         if (USE_SSE2(env->cg)) {
567                 set_ia32_ls_mode(new_node, mode);
568         }
569
570         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
571
572         return new_node;
573 }
574
575
576 /**
577  * Construct a shift/rotate binary operation, sets AM and immediate if required.
578  *
579  * @param env   The transformation environment
580  * @param op1   The first operand
581  * @param op2   The second operand
582  * @param func  The node constructor function
583  * @return The constructed ia32 node.
584  */
585 static ir_node *gen_shift_binop(ia32_transform_env_t *env, ir_node *node,
586                                 ir_node *op1, ir_node *op2,
587                                 construct_binop_func *func) {
588         ir_node    *new_op  = NULL;
589         dbg_info   *dbgi     = get_irn_dbg_info(node);
590         ir_graph   *irg     = env->irg;
591         ir_node    *block   = transform_node(env, get_nodes_block(node));
592         ir_node    *noreg   = ia32_new_NoReg_gp(env->cg);
593         ir_node    *nomem   = new_NoMem();
594         ir_node    *expr_op;
595         ir_node    *imm_op;
596         ir_node    *new_op1 = transform_node(env, op1);
597         ir_node    *new_op2 = transform_node(env, op2);
598         tarval     *tv;
599
600         assert(! mode_is_float(get_irn_mode(node))
601                  && "Shift/Rotate with float not supported");
602
603         /* Check if immediate optimization is on and */
604         /* if it's an operation with immediate.      */
605         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_op2) : NULL;
606         expr_op = get_expr_op(new_op1, new_op2);
607
608         assert((expr_op || imm_op) && "invalid operands");
609
610         if (!expr_op) {
611                 /* We have two consts here: not yet supported */
612                 imm_op = NULL;
613         }
614
615         /* Limit imm_op within range imm8 */
616         if (imm_op) {
617                 tv = get_ia32_Immop_tarval(imm_op);
618
619                 if (tv) {
620                         tv = tarval_mod(tv, new_tarval_from_long(32, get_tarval_mode(tv)));
621                         set_ia32_Immop_tarval(imm_op, tv);
622                 }
623                 else {
624                         imm_op = NULL;
625                 }
626         }
627
628         /* integer operations */
629         if (imm_op) {
630                 /* This is shift/rot with const */
631                 DB((dbg, LEVEL_1, "Shift/Rot with immediate ..."));
632
633                 new_op = func(dbgi, irg, block, noreg, noreg, expr_op, noreg, nomem);
634                 copy_ia32_Immop_attr(new_op, imm_op);
635         } else {
636                 /* This is a normal shift/rot */
637                 DB((dbg, LEVEL_1, "Shift/Rot binop ..."));
638                 new_op = func(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
639         }
640
641         /* set AM support */
642         set_ia32_am_support(new_op, ia32_am_Dest);
643
644         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
645
646         set_ia32_emit_cl(new_op);
647
648         return new_op;
649 }
650
651
652 /**
653  * Construct a standard unary operation, set AM and immediate if required.
654  *
655  * @param env   The transformation environment
656  * @param op    The operand
657  * @param func  The node constructor function
658  * @return The constructed ia32 node.
659  */
660 static ir_node *gen_unop(ia32_transform_env_t *env, ir_node *node, ir_node *op,
661                          construct_unop_func *func) {
662         ir_node           *new_node = NULL;
663         ir_graph          *irg    = env->irg;
664         dbg_info          *dbgi    = get_irn_dbg_info(node);
665         ir_node           *block  = transform_node(env, get_nodes_block(node));
666         ir_node           *noreg  = ia32_new_NoReg_gp(env->cg);
667         ir_node           *nomem  = new_NoMem();
668         ir_node           *new_op = transform_node(env, op);
669
670         new_node = func(dbgi, irg, block, noreg, noreg, new_op, nomem);
671         DB((dbg, LEVEL_1, "INT unop ..."));
672         set_ia32_am_support(new_node, ia32_am_Dest);
673
674         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
675
676         return new_node;
677 }
678
679
680 /**
681  * Creates an ia32 Add.
682  *
683  * @param env   The transformation environment
684  * @return the created ia32 Add node
685  */
686 static ir_node *gen_Add(ia32_transform_env_t *env, ir_node *node) {
687         ir_node  *new_op = NULL;
688         ir_graph *irg    = env->irg;
689         dbg_info *dbgi    = get_irn_dbg_info(node);
690         ir_mode  *mode   = get_irn_mode(node);
691         ir_node  *block  = transform_node(env, get_nodes_block(node));
692         ir_node  *noreg  = ia32_new_NoReg_gp(env->cg);
693         ir_node  *nomem  = new_NoMem();
694         ir_node  *expr_op, *imm_op;
695         ir_node  *op1    = get_Add_left(node);
696         ir_node  *op2    = get_Add_right(node);
697         ir_node  *new_op1 = transform_node(env, op1);
698         ir_node  *new_op2 = transform_node(env, op2);
699
700         /* Check if immediate optimization is on and */
701         /* if it's an operation with immediate.      */
702         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(new_op1, new_op2) : NULL;
703         expr_op = get_expr_op(new_op1, new_op2);
704
705         assert((expr_op || imm_op) && "invalid operands");
706
707         if (mode_is_float(mode)) {
708                 FP_USED(env->cg);
709                 if (USE_SSE2(env->cg))
710                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xAdd);
711                 else
712                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfadd);
713         }
714
715         /* integer ADD */
716         if (!expr_op) {
717                 ia32_immop_type_t tp1 = get_ia32_immop_type(new_op1);
718                 ia32_immop_type_t tp2 = get_ia32_immop_type(new_op2);
719
720                 /* No expr_op means, that we have two const - one symconst and */
721                 /* one tarval or another symconst - because this case is not   */
722                 /* covered by constant folding                                 */
723                 /* We need to check for:                                       */
724                 /*  1) symconst + const    -> becomes a LEA                    */
725                 /*  2) symconst + symconst -> becomes a const + LEA as the elf */
726                 /*        linker doesn't support two symconsts                 */
727
728                 if (tp1 == ia32_ImmSymConst && tp2 == ia32_ImmSymConst) {
729                         /* this is the 2nd case */
730                         new_op = new_rd_ia32_Lea(dbgi, irg, block, new_op1, noreg);
731                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
732                         set_ia32_am_flavour(new_op, ia32_am_OB);
733                         set_ia32_am_support(new_op, ia32_am_Source);
734                         set_ia32_op_type(new_op, ia32_AddrModeS);
735
736                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
737                 } else if (tp1 == ia32_ImmSymConst) {
738                         tarval *tv = get_ia32_Immop_tarval(new_op2);
739                         long offs = get_tarval_long(tv);
740
741                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
742                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
743
744                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op1));
745                         add_ia32_am_offs_int(new_op, offs);
746                         set_ia32_am_flavour(new_op, ia32_am_O);
747                         set_ia32_am_support(new_op, ia32_am_Source);
748                         set_ia32_op_type(new_op, ia32_AddrModeS);
749                 } else if (tp2 == ia32_ImmSymConst) {
750                         tarval *tv = get_ia32_Immop_tarval(new_op1);
751                         long offs = get_tarval_long(tv);
752
753                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
754                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
755
756                         add_ia32_am_offs_int(new_op, offs);
757                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
758                         set_ia32_am_flavour(new_op, ia32_am_O);
759                         set_ia32_am_support(new_op, ia32_am_Source);
760                         set_ia32_op_type(new_op, ia32_AddrModeS);
761                 } else {
762                         tarval *tv1 = get_ia32_Immop_tarval(new_op1);
763                         tarval *tv2 = get_ia32_Immop_tarval(new_op2);
764                         tarval *restv = tarval_add(tv1, tv2);
765
766                         DEBUG_ONLY(ir_fprintf(stderr, "Warning: add with 2 consts not folded: %+F\n", node));
767
768                         new_op = new_rd_ia32_Const(dbgi, irg, block);
769                         set_ia32_Const_tarval(new_op, restv);
770                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
771                 }
772
773                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
774                 return new_op;
775         } else if (imm_op) {
776                 if((env->cg->opt & IA32_OPT_INCDEC) && get_ia32_immop_type(imm_op) == ia32_ImmConst) {
777                         tarval_classification_t class_tv, class_negtv;
778                         tarval *tv = get_ia32_Immop_tarval(imm_op);
779
780                         /* optimize tarvals */
781                         class_tv    = classify_tarval(tv);
782                         class_negtv = classify_tarval(tarval_neg(tv));
783
784                         if (class_tv == TV_CLASSIFY_ONE) { /* + 1 == INC */
785                                 DB((dbg, LEVEL_2, "Add(1) to Inc ... "));
786                                 new_op     = new_rd_ia32_Inc(dbgi, irg, block, noreg, noreg, expr_op, nomem);
787                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
788                                 return new_op;
789                         } else if (class_tv == TV_CLASSIFY_ALL_ONE || class_negtv == TV_CLASSIFY_ONE) { /* + (-1) == DEC */
790                                 DB((dbg, LEVEL_2, "Add(-1) to Dec ... "));
791                                 new_op     = new_rd_ia32_Dec(dbgi, irg, block, noreg, noreg, expr_op, nomem);
792                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
793                                 return new_op;
794                         }
795                 }
796         }
797
798         /* This is a normal add */
799         new_op = new_rd_ia32_Add(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
800
801         /* set AM support */
802         set_ia32_am_support(new_op, ia32_am_Full);
803         set_ia32_commutative(new_op);
804
805         fold_immediate(env, new_op, 2, 3);
806
807         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
808
809         return new_op;
810 }
811
812 #if 0
813 static ir_node *create_ia32_Mul(ia32_transform_env_t *env, ir_node *node) {
814         ir_graph *irg = env->irg;
815         dbg_info *dbgi = get_irn_dbg_info(node);
816         ir_node *block = transform_node(env, get_nodes_block(node));
817         ir_node *op1 = get_Mul_left(node);
818         ir_node *op2 = get_Mul_right(node);
819         ir_node *new_op1 = transform_node(env, op1);
820         ir_node *new_op2 = transform_node(env, op2);
821         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
822         ir_node *proj_EAX, *proj_EDX, *res;
823         ir_node *in[1];
824
825         res = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
826         set_ia32_commutative(res);
827         set_ia32_am_support(res, ia32_am_Source);
828
829         /* imediates are not supported, so no fold_immediate */
830         proj_EAX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
831         proj_EDX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
832
833         /* keep EAX */
834         in[0] = proj_EDX;
835         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in);
836
837         return proj_EAX;
838 }
839 #endif
840
841
842 /**
843  * Creates an ia32 Mul.
844  *
845  * @param env   The transformation environment
846  * @return the created ia32 Mul node
847  */
848 static ir_node *gen_Mul(ia32_transform_env_t *env, ir_node *node) {
849         ir_node *op1 = get_Mul_left(node);
850         ir_node *op2 = get_Mul_right(node);
851         ir_mode *mode = get_irn_mode(node);
852
853         if (mode_is_float(mode)) {
854                 FP_USED(env->cg);
855                 if (USE_SSE2(env->cg))
856                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xMul);
857                 else
858                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfmul);
859         }
860
861         // for the lower 32bit of the result it doesn't matter whether we use
862         // signed or unsigned multiplication so we use IMul as it has fewer
863         // constraints
864         return gen_binop(env, node, op1, op2, new_rd_ia32_IMul);
865 }
866
867 /**
868  * Creates an ia32 Mulh.
869  * Note: Mul produces a 64Bit result and Mulh returns the upper 32 bit of
870  * this result while Mul returns the lower 32 bit.
871  *
872  * @param env   The transformation environment
873  * @return the created ia32 Mulh node
874  */
875 static ir_node *gen_Mulh(ia32_transform_env_t *env, ir_node *node) {
876         ir_graph    *irg = env->irg;
877         dbg_info    *dbgi = get_irn_dbg_info(node);
878         ir_node   *block = transform_node(env, get_nodes_block(node));
879         ir_node     *op1 = get_irn_n(node, 0);
880         ir_node     *op2 = get_irn_n(node, 1);
881         ir_node *new_op1 = transform_node(env, op1);
882         ir_node *new_op2 = transform_node(env, op2);
883         ir_node   *noreg = ia32_new_NoReg_gp(env->cg);
884         ir_node *proj_EAX, *proj_EDX, *res;
885         ir_mode *mode = get_irn_mode(node);
886         ir_node *in[1];
887
888         assert(!mode_is_float(mode) && "Mulh with float not supported");
889         if(mode_is_signed(mode)) {
890                 res = new_rd_ia32_IMul1OP(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
891         } else {
892                 res = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
893         }
894
895         set_ia32_commutative(res);
896         set_ia32_am_support(res, ia32_am_Source);
897
898         set_ia32_am_support(res, ia32_am_Source);
899
900         proj_EAX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
901         proj_EDX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
902
903         /* keep EAX */
904         in[0] = proj_EAX;
905         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in);
906
907         return proj_EDX;
908 }
909
910
911
912 /**
913  * Creates an ia32 And.
914  *
915  * @param env   The transformation environment
916  * @return The created ia32 And node
917  */
918 static ir_node *gen_And(ia32_transform_env_t *env, ir_node *node) {
919         ir_node *op1 = get_And_left(node);
920         ir_node *op2 = get_And_right(node);
921
922         assert (! mode_is_float(get_irn_mode(node)));
923         return gen_binop(env, node, op1, op2, new_rd_ia32_And);
924 }
925
926
927
928 /**
929  * Creates an ia32 Or.
930  *
931  * @param env   The transformation environment
932  * @return The created ia32 Or node
933  */
934 static ir_node *gen_Or(ia32_transform_env_t *env, ir_node *node) {
935         ir_node *op1 = get_Or_left(node);
936         ir_node *op2 = get_Or_right(node);
937
938         assert (! mode_is_float(get_irn_mode(node)));
939         return gen_binop(env, node, op1, op2, new_rd_ia32_Or);
940 }
941
942
943
944 /**
945  * Creates an ia32 Eor.
946  *
947  * @param env   The transformation environment
948  * @return The created ia32 Eor node
949  */
950 static ir_node *gen_Eor(ia32_transform_env_t *env, ir_node *node) {
951         ir_node *op1 = get_Eor_left(node);
952         ir_node *op2 = get_Eor_right(node);
953
954         assert(! mode_is_float(get_irn_mode(node)));
955         return gen_binop(env, node, op1, op2, new_rd_ia32_Xor);
956 }
957
958
959
960 /**
961  * Creates an ia32 Max.
962  *
963  * @param env      The transformation environment
964  * @return the created ia32 Max node
965  */
966 static ir_node *gen_Max(ia32_transform_env_t *env, ir_node *node) {
967         ir_graph *irg = env->irg;
968         ir_node *new_op;
969         ir_mode *mode = get_irn_mode(node);
970         dbg_info *dbgi = get_irn_dbg_info(node);
971         ir_node *block = transform_node(env, get_nodes_block(node));
972         ir_node *op1 = get_irn_n(node, 0);
973         ir_node *op2 = get_irn_n(node, 1);
974         ir_node *new_op1 = transform_node(env, op1);
975         ir_node *new_op2 = transform_node(env, op2);
976         ir_mode *op_mode = get_irn_mode(op1);
977
978         assert(get_mode_size_bits(mode) == 32);
979
980         if (mode_is_float(mode)) {
981                 FP_USED(env->cg);
982                 if (USE_SSE2(env->cg)) {
983                         new_op = gen_binop_float(env, node, new_op1, new_op2, new_rd_ia32_xMax);
984                 } else {
985                         panic("Can't create Max node");
986                 }
987         } else {
988                 long pnc = pn_Cmp_Gt;
989                 if(!mode_is_signed(op_mode)) {
990                         pnc |= ia32_pn_Cmp_Unsigned;
991                 }
992                 new_op = new_rd_ia32_CmpCMov(dbgi, irg, block, new_op1, new_op2, new_op1, new_op2);
993                 set_ia32_pncode(new_op, pnc);
994                 set_ia32_am_support(new_op, ia32_am_None);
995         }
996         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
997
998         return new_op;
999 }
1000
1001 /**
1002  * Creates an ia32 Min.
1003  *
1004  * @param env      The transformation environment
1005  * @return the created ia32 Min node
1006  */
1007 static ir_node *gen_Min(ia32_transform_env_t *env, ir_node *node) {
1008         ir_graph *irg = env->irg;
1009         ir_node *new_op;
1010         ir_mode *mode = get_irn_mode(node);
1011         dbg_info *dbgi = get_irn_dbg_info(node);
1012         ir_node *block = transform_node(env, get_nodes_block(node));
1013         ir_node *op1 = get_irn_n(node, 0);
1014         ir_node *op2 = get_irn_n(node, 1);
1015         ir_node *new_op1 = transform_node(env, op1);
1016         ir_node *new_op2 = transform_node(env, op2);
1017         ir_mode *op_mode = get_irn_mode(op1);
1018
1019         assert(get_mode_size_bits(mode) == 32);
1020
1021         if (mode_is_float(mode)) {
1022                 FP_USED(env->cg);
1023                 if (USE_SSE2(env->cg)) {
1024                         new_op = gen_binop_float(env, node, op1, op2, new_rd_ia32_xMin);
1025                 } else {
1026                         panic("can't create Min node");
1027                 }
1028         } else {
1029                 long pnc = pn_Cmp_Lt;
1030                 if(!mode_is_signed(op_mode)) {
1031                         pnc |= ia32_pn_Cmp_Unsigned;
1032                 }
1033                 new_op = new_rd_ia32_CmpCMov(dbgi, irg, block, new_op1, new_op2, new_op1, new_op2);
1034                 set_ia32_pncode(new_op, pnc);
1035                 set_ia32_am_support(new_op, ia32_am_None);
1036         }
1037         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1038
1039         return new_op;
1040 }
1041
1042
1043 /**
1044  * Creates an ia32 Sub.
1045  *
1046  * @param env   The transformation environment
1047  * @return The created ia32 Sub node
1048  */
1049 static ir_node *gen_Sub(ia32_transform_env_t *env, ir_node *node) {
1050         ir_node  *new_op = NULL;
1051         ir_graph *irg    = env->irg;
1052         dbg_info *dbgi    = get_irn_dbg_info(node);
1053         ir_mode  *mode   = get_irn_mode(node);
1054         ir_node  *block  = transform_node(env, get_nodes_block(node));
1055         ir_node  *noreg  = ia32_new_NoReg_gp(env->cg);
1056         ir_node  *nomem  = new_NoMem();
1057         ir_node  *op1    = get_Sub_left(node);
1058         ir_node  *op2    = get_Sub_right(node);
1059         ir_node *new_op1 = transform_node(env, op1);
1060         ir_node *new_op2 = transform_node(env, op2);
1061         ir_node  *expr_op, *imm_op;
1062
1063         /* Check if immediate optimization is on and */
1064         /* if it's an operation with immediate.      */
1065         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_op2) : NULL;
1066         expr_op = get_expr_op(new_op1, new_op2);
1067
1068         assert((expr_op || imm_op) && "invalid operands");
1069
1070         if (mode_is_float(mode)) {
1071                 FP_USED(env->cg);
1072                 if (USE_SSE2(env->cg))
1073                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xSub);
1074                 else
1075                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfsub);
1076         }
1077
1078         /* integer SUB */
1079         if (! expr_op) {
1080                 ia32_immop_type_t tp1 = get_ia32_immop_type(new_op1);
1081                 ia32_immop_type_t tp2 = get_ia32_immop_type(new_op2);
1082
1083                 /* No expr_op means, that we have two const - one symconst and */
1084                 /* one tarval or another symconst - because this case is not   */
1085                 /* covered by constant folding                                 */
1086                 /* We need to check for:                                       */
1087                 /*  1) symconst - const    -> becomes a LEA                    */
1088                 /*  2) symconst - symconst -> becomes a const - LEA as the elf */
1089                 /*        linker doesn't support two symconsts                 */
1090                 if (tp1 == ia32_ImmSymConst && tp2 == ia32_ImmSymConst) {
1091                         /* this is the 2nd case */
1092                         new_op = new_rd_ia32_Lea(dbgi, irg, block, new_op1, noreg);
1093                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(op2));
1094                         set_ia32_am_sc_sign(new_op);
1095                         set_ia32_am_flavour(new_op, ia32_am_OB);
1096
1097                         DBG_OPT_LEA3(op1, op2, node, new_op);
1098                 } else if (tp1 == ia32_ImmSymConst) {
1099                         tarval *tv = get_ia32_Immop_tarval(new_op2);
1100                         long offs = get_tarval_long(tv);
1101
1102                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
1103                         DBG_OPT_LEA3(op1, op2, node, new_op);
1104
1105                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op1));
1106                         add_ia32_am_offs_int(new_op, -offs);
1107                         set_ia32_am_flavour(new_op, ia32_am_O);
1108                         set_ia32_am_support(new_op, ia32_am_Source);
1109                         set_ia32_op_type(new_op, ia32_AddrModeS);
1110                 } else if (tp2 == ia32_ImmSymConst) {
1111                         tarval *tv = get_ia32_Immop_tarval(new_op1);
1112                         long offs = get_tarval_long(tv);
1113
1114                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
1115                         DBG_OPT_LEA3(op1, op2, node, new_op);
1116
1117                         add_ia32_am_offs_int(new_op, offs);
1118                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
1119                         set_ia32_am_sc_sign(new_op);
1120                         set_ia32_am_flavour(new_op, ia32_am_O);
1121                         set_ia32_am_support(new_op, ia32_am_Source);
1122                         set_ia32_op_type(new_op, ia32_AddrModeS);
1123                 } else {
1124                         tarval *tv1 = get_ia32_Immop_tarval(new_op1);
1125                         tarval *tv2 = get_ia32_Immop_tarval(new_op2);
1126                         tarval *restv = tarval_sub(tv1, tv2);
1127
1128                         DEBUG_ONLY(ir_fprintf(stderr, "Warning: sub with 2 consts not folded: %+F\n", node));
1129
1130                         new_op = new_rd_ia32_Const(dbgi, irg, block);
1131                         set_ia32_Const_tarval(new_op, restv);
1132                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
1133                 }
1134
1135                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1136                 return new_op;
1137         } else if (imm_op) {
1138                 if((env->cg->opt & IA32_OPT_INCDEC) && get_ia32_immop_type(imm_op) == ia32_ImmConst) {
1139                         tarval_classification_t class_tv, class_negtv;
1140                         tarval *tv = get_ia32_Immop_tarval(imm_op);
1141
1142                         /* optimize tarvals */
1143                         class_tv    = classify_tarval(tv);
1144                         class_negtv = classify_tarval(tarval_neg(tv));
1145
1146                         if (class_tv == TV_CLASSIFY_ONE) {
1147                                 DB((dbg, LEVEL_2, "Sub(1) to Dec ... "));
1148                                 new_op     = new_rd_ia32_Dec(dbgi, irg, block, noreg, noreg, expr_op, nomem);
1149                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1150                                 return new_op;
1151                         } else if (class_tv == TV_CLASSIFY_ALL_ONE || class_negtv == TV_CLASSIFY_ONE) {
1152                                 DB((dbg, LEVEL_2, "Sub(-1) to Inc ... "));
1153                                 new_op     = new_rd_ia32_Inc(dbgi, irg, block, noreg, noreg, expr_op, nomem);
1154                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1155                                 return new_op;
1156                         }
1157                 }
1158         }
1159
1160         /* This is a normal sub */
1161         new_op = new_rd_ia32_Sub(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1162
1163         /* set AM support */
1164         set_ia32_am_support(new_op, ia32_am_Full);
1165
1166         fold_immediate(env, new_op, 2, 3);
1167
1168         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1169
1170         return new_op;
1171 }
1172
1173
1174
1175 /**
1176  * Generates an ia32 DivMod with additional infrastructure for the
1177  * register allocator if needed.
1178  *
1179  * @param env      The transformation environment
1180  * @param dividend -no comment- :)
1181  * @param divisor  -no comment- :)
1182  * @param dm_flav  flavour_Div/Mod/DivMod
1183  * @return The created ia32 DivMod node
1184  */
1185 static ir_node *generate_DivMod(ia32_transform_env_t *env, ir_node *node,
1186                                 ir_node *dividend, ir_node *divisor,
1187                                 ia32_op_flavour_t dm_flav) {
1188         ir_graph *irg   = env->irg;
1189         dbg_info *dbgi   = get_irn_dbg_info(node);
1190         ir_mode  *mode  = get_irn_mode(node);
1191         ir_node  *block = transform_node(env, get_nodes_block(node));
1192         ir_node  *res, *proj_div, *proj_mod;
1193         ir_node  *edx_node, *cltd;
1194         ir_node  *in_keep[1];
1195         ir_node  *mem, *new_mem;
1196         ir_node  *projs[pn_DivMod_max];
1197         ir_node  *noreg = ia32_new_NoReg_gp(env->cg);
1198         ir_node *new_dividend = transform_node(env, dividend);
1199         ir_node *new_divisor = transform_node(env, divisor);
1200
1201         ia32_collect_Projs(node, projs, pn_DivMod_max);
1202
1203         switch (dm_flav) {
1204                 case flavour_Div:
1205                         mem  = get_Div_mem(node);
1206                         mode = get_irn_mode(be_get_Proj_for_pn(node, pn_Div_res));
1207                         break;
1208                 case flavour_Mod:
1209                         mem  = get_Mod_mem(node);
1210                         mode = get_irn_mode(be_get_Proj_for_pn(node, pn_Mod_res));
1211                         break;
1212                 case flavour_DivMod:
1213                         mem      = get_DivMod_mem(node);
1214                         proj_div = be_get_Proj_for_pn(node, pn_DivMod_res_div);
1215                         proj_mod = be_get_Proj_for_pn(node, pn_DivMod_res_mod);
1216                         mode     = proj_div ? get_irn_mode(proj_div) : get_irn_mode(proj_mod);
1217                         break;
1218                 default:
1219                         panic("invalid divmod flavour!");
1220         }
1221         new_mem = transform_node(env, mem);
1222
1223         if (mode_is_signed(mode)) {
1224                 /* in signed mode, we need to sign extend the dividend */
1225                 cltd     = new_rd_ia32_Cltd(dbgi, irg, block, new_dividend);
1226                 new_dividend = new_rd_Proj(dbgi, irg, block, cltd, mode_Iu, pn_ia32_Cltd_EAX);
1227                 edx_node = new_rd_Proj(dbgi, irg, block, cltd, mode_Iu, pn_ia32_Cltd_EDX);
1228         } else {
1229                 edx_node = new_rd_ia32_Const(dbgi, irg, block);
1230                 add_irn_dep(edx_node, be_abi_get_start_barrier(env->cg->birg->abi));
1231                 set_ia32_Immop_tarval(edx_node, get_tarval_null(mode_Iu));
1232         }
1233
1234         if(mode_is_signed(mode)) {
1235                 res = new_rd_ia32_IDiv(dbgi, irg, block, noreg, noreg, new_dividend, edx_node, new_divisor, new_mem, dm_flav);
1236         } else {
1237                 res = new_rd_ia32_Div(dbgi, irg, block, noreg, noreg, new_dividend, edx_node, new_divisor, new_mem, dm_flav);
1238         }
1239
1240         /* Matze: code can't handle this at the moment... */
1241 #if 0
1242         /* set AM support */
1243         set_ia32_am_support(res, ia32_am_Source);
1244 #endif
1245
1246         set_ia32_n_res(res, 2);
1247
1248         /* Only one proj is used -> We must add a second proj and */
1249         /* connect this one to a Keep node to eat up the second   */
1250         /* destroyed register.                                    */
1251         /* We also renumber the Firm projs into ia32 projs.       */
1252
1253         switch (get_irn_opcode(node)) {
1254                 case iro_Div:
1255                         /* add Proj-Keep for mod res */
1256                         in_keep[0] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_mod_res);
1257                         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in_keep);
1258                         break;
1259                 case iro_Mod:
1260                         /* add Proj-Keep for div res */
1261                         in_keep[0] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_div_res);
1262                         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in_keep);
1263                         break;
1264                 case iro_DivMod:
1265                         /* check, which Proj-Keep, we need to add */
1266                         proj_div = be_get_Proj_for_pn(node, pn_DivMod_res_div);
1267                         proj_mod = be_get_Proj_for_pn(node, pn_DivMod_res_mod);
1268
1269                         if (proj_div && proj_mod) {
1270                                 /* nothing to be done */
1271                         }
1272                         else if (! proj_div && ! proj_mod) {
1273                                 assert(0 && "Missing DivMod result proj");
1274                         }
1275                         else if (! proj_div) {
1276                                 /* We have only mod result: add div res Proj-Keep */
1277                                 in_keep[0] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_div_res);
1278                                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in_keep);
1279                         }
1280                         else {
1281                                 /* We have only div result: add mod res Proj-Keep */
1282                                 in_keep[0] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_mod_res);
1283                                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in_keep);
1284                         }
1285                         break;
1286                 default:
1287                         assert(0 && "Div, Mod, or DivMod expected.");
1288                         break;
1289         }
1290
1291         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1292
1293         return res;
1294 }
1295
1296
1297 /**
1298  * Wrapper for generate_DivMod. Sets flavour_Mod.
1299  *
1300  * @param env      The transformation environment
1301  */
1302 static ir_node *gen_Mod(ia32_transform_env_t *env, ir_node *node) {
1303         return generate_DivMod(env, node, get_Mod_left(node),
1304                                get_Mod_right(node), flavour_Mod);
1305 }
1306
1307 /**
1308  * Wrapper for generate_DivMod. Sets flavour_Div.
1309  *
1310  * @param env      The transformation environment
1311  */
1312 static ir_node *gen_Div(ia32_transform_env_t *env, ir_node *node) {
1313         return generate_DivMod(env, node, get_Div_left(node),
1314                                get_Div_right(node), flavour_Div);
1315 }
1316
1317 /**
1318  * Wrapper for generate_DivMod. Sets flavour_DivMod.
1319  */
1320 static ir_node *gen_DivMod(ia32_transform_env_t *env, ir_node *node) {
1321         return generate_DivMod(env, node, get_DivMod_left(node),
1322                                get_DivMod_right(node), flavour_DivMod);
1323 }
1324
1325
1326
1327 /**
1328  * Creates an ia32 floating Div.
1329  *
1330  * @param env   The transformation environment
1331  * @return The created ia32 xDiv node
1332  */
1333 static ir_node *gen_Quot(ia32_transform_env_t *env, ir_node *node) {
1334         ir_graph *irg = env->irg;
1335         dbg_info *dbgi = get_irn_dbg_info(node);
1336         ir_node *block = transform_node(env, get_nodes_block(node));
1337         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
1338         ir_node *new_op;
1339         ir_node *nomem = new_rd_NoMem(env->irg);
1340         ir_node *op1   = get_Quot_left(node);
1341         ir_node *op2   = get_Quot_right(node);
1342         ir_node *new_op1 = transform_node(env, op1);
1343         ir_node *new_op2 = transform_node(env, op2);
1344
1345         FP_USED(env->cg);
1346         if (USE_SSE2(env->cg)) {
1347                 ir_mode *mode = get_irn_mode(op1);
1348                 if (is_ia32_xConst(new_op2)) {
1349                         new_op = new_rd_ia32_xDiv(dbgi, irg, block, noreg, noreg, new_op1, noreg, nomem);
1350                         set_ia32_am_support(new_op, ia32_am_None);
1351                         copy_ia32_Immop_attr(new_op, new_op2);
1352                 } else {
1353                         new_op = new_rd_ia32_xDiv(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1354                         // Matze: disabled for now, spillslot coalescer fails
1355                         //set_ia32_am_support(new_op, ia32_am_Source);
1356                 }
1357                 set_ia32_ls_mode(new_op, mode);
1358         } else {
1359                 new_op = new_rd_ia32_vfdiv(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1360                 // Matze: disabled for now (spillslot coalescer fails)
1361                 //set_ia32_am_support(new_op, ia32_am_Source);
1362         }
1363         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1364         return new_op;
1365 }
1366
1367
1368 /**
1369  * Creates an ia32 Shl.
1370  *
1371  * @param env   The transformation environment
1372  * @return The created ia32 Shl node
1373  */
1374 static ir_node *gen_Shl(ia32_transform_env_t *env, ir_node *node) {
1375         return gen_shift_binop(env, node, get_Shl_left(node), get_Shl_right(node),
1376                                new_rd_ia32_Shl);
1377 }
1378
1379
1380
1381 /**
1382  * Creates an ia32 Shr.
1383  *
1384  * @param env   The transformation environment
1385  * @return The created ia32 Shr node
1386  */
1387 static ir_node *gen_Shr(ia32_transform_env_t *env, ir_node *node) {
1388         return gen_shift_binop(env, node, get_Shr_left(node),
1389                                get_Shr_right(node), new_rd_ia32_Shr);
1390 }
1391
1392
1393
1394 /**
1395  * Creates an ia32 Sar.
1396  *
1397  * @param env   The transformation environment
1398  * @return The created ia32 Shrs node
1399  */
1400 static ir_node *gen_Shrs(ia32_transform_env_t *env, ir_node *node) {
1401         return gen_shift_binop(env, node, get_Shrs_left(node),
1402                                get_Shrs_right(node), new_rd_ia32_Sar);
1403 }
1404
1405
1406
1407 /**
1408  * Creates an ia32 RotL.
1409  *
1410  * @param env   The transformation environment
1411  * @param op1   The first operator
1412  * @param op2   The second operator
1413  * @return The created ia32 RotL node
1414  */
1415 static ir_node *gen_RotL(ia32_transform_env_t *env, ir_node *node,
1416                          ir_node *op1, ir_node *op2) {
1417         return gen_shift_binop(env, node, op1, op2, new_rd_ia32_Rol);
1418 }
1419
1420
1421
1422 /**
1423  * Creates an ia32 RotR.
1424  * NOTE: There is no RotR with immediate because this would always be a RotL
1425  *       "imm-mode_size_bits" which can be pre-calculated.
1426  *
1427  * @param env   The transformation environment
1428  * @param op1   The first operator
1429  * @param op2   The second operator
1430  * @return The created ia32 RotR node
1431  */
1432 static ir_node *gen_RotR(ia32_transform_env_t *env, ir_node *node, ir_node *op1,
1433                          ir_node *op2) {
1434         return gen_shift_binop(env, node, op1, op2, new_rd_ia32_Ror);
1435 }
1436
1437
1438
1439 /**
1440  * Creates an ia32 RotR or RotL (depending on the found pattern).
1441  *
1442  * @param env   The transformation environment
1443  * @return The created ia32 RotL or RotR node
1444  */
1445 static ir_node *gen_Rot(ia32_transform_env_t *env, ir_node *node) {
1446         ir_node *rotate = NULL;
1447         ir_node *op1    = get_Rot_left(node);
1448         ir_node *op2    = get_Rot_right(node);
1449
1450         /* Firm has only Rot (which is a RotL), so we are looking for a right (op2)
1451                  operand "-e+mode_size_bits" (it's an already modified "mode_size_bits-e",
1452                  that means we can create a RotR instead of an Add and a RotL */
1453
1454         if (get_irn_op(op2) == op_Add) {
1455                 ir_node *add = op2;
1456                 ir_node *left = get_Add_left(add);
1457                 ir_node *right = get_Add_right(add);
1458                 if (is_Const(right)) {
1459                         tarval  *tv        = get_Const_tarval(right);
1460                         ir_mode *mode      = get_irn_mode(node);
1461                         long     bits      = get_mode_size_bits(mode);
1462
1463                         if (get_irn_op(left) == op_Minus &&
1464                                         tarval_is_long(tv)       &&
1465                                         get_tarval_long(tv) == bits)
1466                         {
1467                                 DB((dbg, LEVEL_1, "RotL into RotR ... "));
1468                                 rotate = gen_RotR(env, node, op1, get_Minus_op(left));
1469                         }
1470                 }
1471         }
1472
1473         if (rotate == NULL) {
1474                 rotate = gen_RotL(env, node, op1, op2);
1475         }
1476
1477         return rotate;
1478 }
1479
1480
1481
1482 /**
1483  * Transforms a Minus node.
1484  *
1485  * @param env   The transformation environment
1486  * @param op    The Minus operand
1487  * @return The created ia32 Minus node
1488  */
1489 ir_node *gen_Minus_ex(ia32_transform_env_t *env, ir_node *node, ir_node *op) {
1490         ir_entity *ent;
1491         ir_node   *res;
1492         ir_graph  *irg   = env->irg;
1493         dbg_info  *dbgi  = get_irn_dbg_info(node);
1494         ir_node   *block = transform_node(env, get_nodes_block(node));
1495         ir_mode   *mode  = get_irn_mode(node);
1496         int        size;
1497
1498         if (mode_is_float(mode)) {
1499                 ir_node *new_op = transform_node(env, op);
1500                 FP_USED(env->cg);
1501                 if (USE_SSE2(env->cg)) {
1502                         ir_node *noreg_gp = ia32_new_NoReg_gp(env->cg);
1503                         ir_node *noreg_fp = ia32_new_NoReg_fp(env->cg);
1504                         ir_node *nomem    = new_rd_NoMem(irg);
1505
1506                         res = new_rd_ia32_xXor(dbgi, irg, block, noreg_gp, noreg_gp, new_op, noreg_fp, nomem);
1507
1508                         size   = get_mode_size_bits(mode);
1509                         ent    = ia32_gen_fp_known_const(size == 32 ? ia32_SSIGN : ia32_DSIGN);
1510
1511                         set_ia32_am_sc(res, ent);
1512                         set_ia32_op_type(res, ia32_AddrModeS);
1513                         set_ia32_ls_mode(res, mode);
1514                 } else {
1515                         res = new_rd_ia32_vfchs(dbgi, irg, block, new_op);
1516                 }
1517         } else {
1518                 res = gen_unop(env, node, op, new_rd_ia32_Neg);
1519         }
1520
1521         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1522
1523         return res;
1524 }
1525
1526 /**
1527  * Transforms a Minus node.
1528  *
1529  * @param env   The transformation environment
1530  * @return The created ia32 Minus node
1531  */
1532 static ir_node *gen_Minus(ia32_transform_env_t *env, ir_node *node) {
1533         return gen_Minus_ex(env, node, get_Minus_op(node));
1534 }
1535
1536
1537 /**
1538  * Transforms a Not node.
1539  *
1540  * @param env   The transformation environment
1541  * @return The created ia32 Not node
1542  */
1543 static ir_node *gen_Not(ia32_transform_env_t *env, ir_node *node) {
1544         ir_node *op = get_Not_op(node);
1545
1546         assert (! mode_is_float(get_irn_mode(node)));
1547         return gen_unop(env, node, op, new_rd_ia32_Not);
1548 }
1549
1550
1551
1552 /**
1553  * Transforms an Abs node.
1554  *
1555  * @param env   The transformation environment
1556  * @return The created ia32 Abs node
1557  */
1558 static ir_node *gen_Abs(ia32_transform_env_t *env, ir_node *node) {
1559         ir_node  *res, *p_eax, *p_edx;
1560         ir_graph *irg      = env->irg;
1561         dbg_info *dbgi      = get_irn_dbg_info(node);
1562         ir_node  *block    = transform_node(env, get_nodes_block(node));
1563         ir_mode  *mode     = get_irn_mode(node);
1564         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
1565         ir_node  *noreg_fp = ia32_new_NoReg_fp(env->cg);
1566         ir_node  *nomem    = new_NoMem();
1567         ir_node  *op       = get_Abs_op(node);
1568         ir_node  *new_op   = transform_node(env, op);
1569         int       size;
1570         ir_entity *ent;
1571
1572         if (mode_is_float(mode)) {
1573                 FP_USED(env->cg);
1574                 if (USE_SSE2(env->cg)) {
1575                         res = new_rd_ia32_xAnd(dbgi,irg, block, noreg_gp, noreg_gp, new_op, noreg_fp, nomem);
1576
1577                         size = get_mode_size_bits(mode);
1578                         ent  = ia32_gen_fp_known_const(size == 32 ? ia32_SABS : ia32_DABS);
1579
1580                         set_ia32_am_sc(res, ent);
1581
1582                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1583
1584                         set_ia32_op_type(res, ia32_AddrModeS);
1585                         set_ia32_ls_mode(res, mode);
1586                 }
1587                 else {
1588                         res = new_rd_ia32_vfabs(dbgi, irg, block, new_op);
1589                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1590                 }
1591         }
1592         else {
1593                 res   = new_rd_ia32_Cltd(dbgi, irg, block, new_op);
1594                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1595
1596                 p_eax = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
1597                 p_edx = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
1598
1599                 res   = new_rd_ia32_Xor(dbgi, irg, block, noreg_gp, noreg_gp, p_eax, p_edx, nomem);
1600                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1601
1602                 res   = new_rd_ia32_Sub(dbgi, irg, block, noreg_gp, noreg_gp, res, p_edx, nomem);
1603                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1604         }
1605
1606         return res;
1607 }
1608
1609
1610
1611 /**
1612  * Transforms a Load.
1613  *
1614  * @param env   The transformation environment
1615  * @return the created ia32 Load node
1616  */
1617 static ir_node *gen_Load(ia32_transform_env_t *env, ir_node *node) {
1618         ir_graph *irg  = env->irg;
1619         dbg_info *dbgi  = get_irn_dbg_info(node);
1620         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
1621         ir_mode *mode  = get_Load_mode(node);
1622         ir_node *block = transform_node(env, get_nodes_block(node));
1623         ir_node *ptr   = get_Load_ptr(node);
1624         ir_node *new_ptr = transform_node(env, ptr);
1625         ir_node *lptr  = new_ptr;
1626         ir_node *mem   = get_Load_mem(node);
1627         ir_node *new_mem = transform_node(env, mem);
1628         int     is_imm = 0;
1629         ir_node *new_op;
1630         ia32_am_flavour_t am_flav = ia32_am_B;
1631         ir_node *projs[pn_Load_max];
1632
1633         ia32_collect_Projs(node, projs, pn_Load_max);
1634
1635         /*
1636                 check for special case: the loaded value might not be used (optimized, volatile, ...)
1637                 we add a Proj + Keep for volatile loads and ignore all other cases
1638         */
1639         if (! be_get_Proj_for_pn(node, pn_Load_res) && get_Load_volatility(node) == volatility_is_volatile) {
1640                 /* add a result proj and a Keep to produce a pseudo use */
1641                 ir_node *proj = new_r_Proj(irg, block, node, mode_Iu, pn_ia32_Load_res);
1642                 be_new_Keep(arch_get_irn_reg_class(env->cg->arch_env, proj, -1), irg, block, 1, &proj);
1643         }
1644
1645         /* address might be a constant (symconst or absolute address) */
1646         if (is_ia32_Const(new_ptr)) {
1647                 lptr   = noreg;
1648                 is_imm = 1;
1649         }
1650
1651         if (mode_is_float(mode)) {
1652                 FP_USED(env->cg);
1653                 if (USE_SSE2(env->cg)) {
1654                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, lptr, noreg, new_mem);
1655                 } else {
1656                         new_op = new_rd_ia32_vfld(dbgi, irg, block, lptr, noreg, new_mem);
1657                 }
1658         } else {
1659                 new_op = new_rd_ia32_Load(dbgi, irg, block, lptr, noreg, new_mem);
1660         }
1661
1662         /* base is a constant address */
1663         if (is_imm) {
1664                 if (get_ia32_immop_type(new_ptr) == ia32_ImmSymConst) {
1665                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_ptr));
1666                         am_flav = ia32_am_N;
1667                 } else {
1668                         tarval *tv = get_ia32_Immop_tarval(new_ptr);
1669                         long offs = get_tarval_long(tv);
1670
1671                         add_ia32_am_offs_int(new_op, offs);
1672                         am_flav = ia32_am_O;
1673                 }
1674         }
1675
1676         set_ia32_am_support(new_op, ia32_am_Source);
1677         set_ia32_op_type(new_op, ia32_AddrModeS);
1678         set_ia32_am_flavour(new_op, am_flav);
1679         set_ia32_ls_mode(new_op, mode);
1680
1681         /* make sure we are scheduled behind the intial IncSP/Barrier
1682          * to avoid spills being placed before it
1683          */
1684         if(block == get_irg_start_block(irg)) {
1685                 add_irn_dep(new_op, get_irg_frame(irg));
1686         }
1687
1688         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1689
1690         return new_op;
1691 }
1692
1693
1694
1695 /**
1696  * Transforms a Store.
1697  *
1698  * @param env   The transformation environment
1699  * @return the created ia32 Store node
1700  */
1701 static ir_node *gen_Store(ia32_transform_env_t *env, ir_node *node) {
1702         ir_graph *irg    = env->irg;
1703         dbg_info *dbgi    = get_irn_dbg_info(node);
1704         ir_node *block   = transform_node(env, get_nodes_block(node));
1705         ir_node *noreg   = ia32_new_NoReg_gp(env->cg);
1706         ir_node *ptr     = get_Store_ptr(node);
1707         ir_node *new_ptr = transform_node(env, ptr);
1708         ir_node *sptr    = new_ptr;
1709         ir_node *val     = get_Store_value(node);
1710         ir_node *new_val = transform_node(env, val);
1711         ir_node *mem     = get_Store_mem(node);
1712         ir_node *new_mem = transform_node(env, mem);
1713         ir_mode *mode    = get_irn_mode(val);
1714         ir_node *sval    = new_val;
1715         int      is_imm  = 0;
1716         ir_node *new_op;
1717         ia32_am_flavour_t am_flav = ia32_am_B;
1718
1719         if (is_ia32_Const(new_val)) {
1720                 assert(!mode_is_float(mode));
1721                 sval = noreg;
1722         }
1723
1724         /* address might be a constant (symconst or absolute address) */
1725         if (is_ia32_Const(new_ptr)) {
1726                 sptr   = noreg;
1727                 is_imm = 1;
1728         }
1729
1730         if (mode_is_float(mode)) {
1731                 FP_USED(env->cg);
1732                 if (USE_SSE2(env->cg)) {
1733                         new_op = new_rd_ia32_xStore(dbgi, irg, block, sptr, noreg, sval, new_mem);
1734                 } else {
1735                         new_op = new_rd_ia32_vfst(dbgi, irg, block, sptr, noreg, sval, new_mem);
1736                 }
1737         } else if (get_mode_size_bits(mode) == 8) {
1738                 new_op = new_rd_ia32_Store8Bit(dbgi, irg, block, sptr, noreg, sval, new_mem);
1739         } else {
1740                 new_op = new_rd_ia32_Store(dbgi, irg, block, sptr, noreg, sval, new_mem);
1741         }
1742
1743         /* stored const is an immediate value */
1744         if (is_ia32_Const(new_val)) {
1745                 assert(!mode_is_float(mode));
1746                 copy_ia32_Immop_attr(new_op, new_val);
1747         }
1748
1749         /* base is an constant address */
1750         if (is_imm) {
1751                 if (get_ia32_immop_type(new_ptr) == ia32_ImmSymConst) {
1752                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_ptr));
1753                         am_flav = ia32_am_N;
1754                 } else {
1755                         tarval *tv = get_ia32_Immop_tarval(new_ptr);
1756                         long offs = get_tarval_long(tv);
1757
1758                         add_ia32_am_offs_int(new_op, offs);
1759                         am_flav = ia32_am_O;
1760                 }
1761         }
1762
1763         set_ia32_am_support(new_op, ia32_am_Dest);
1764         set_ia32_op_type(new_op, ia32_AddrModeD);
1765         set_ia32_am_flavour(new_op, am_flav);
1766         set_ia32_ls_mode(new_op, mode);
1767
1768         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1769
1770         return new_op;
1771 }
1772
1773
1774
1775 /**
1776  * Transforms a Cond -> Proj[b] -> Cmp into a CondJmp, CondJmp_i or TestJmp
1777  *
1778  * @param env   The transformation environment
1779  * @return The transformed node.
1780  */
1781 static ir_node *gen_Cond(ia32_transform_env_t *env, ir_node *node) {
1782         ir_graph *irg      = env->irg;
1783         dbg_info *dbgi      = get_irn_dbg_info(node);
1784         ir_node  *block    = transform_node(env, get_nodes_block(node));
1785         ir_node  *sel      = get_Cond_selector(node);
1786         ir_mode  *sel_mode = get_irn_mode(sel);
1787         ir_node  *res      = NULL;
1788         ir_node  *noreg    = ia32_new_NoReg_gp(env->cg);
1789         ir_node  *cnst, *expr;
1790
1791         if (is_Proj(sel) && sel_mode == mode_b) {
1792                 ir_node *nomem = new_NoMem();
1793                 ir_node *pred = get_Proj_pred(sel);
1794                 ir_node *cmp_a = get_Cmp_left(pred);
1795                 ir_node *new_cmp_a = transform_node(env, cmp_a);
1796                 ir_node *cmp_b = get_Cmp_right(pred);
1797                 ir_node *new_cmp_b = transform_node(env, cmp_b);
1798                 ir_mode *cmp_mode = get_irn_mode(cmp_a);
1799
1800                 int pnc = get_Proj_proj(sel);
1801                 if(mode_is_float(cmp_mode) || !mode_is_signed(cmp_mode)) {
1802                         pnc |= ia32_pn_Cmp_Unsigned;
1803                 }
1804
1805                 /* check if we can use a CondJmp with immediate */
1806                 cnst = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(new_cmp_a, new_cmp_b) : NULL;
1807                 expr = get_expr_op(new_cmp_a, new_cmp_b);
1808
1809                 if (cnst != NULL && expr != NULL) {
1810                         /* immop has to be the right operand, we might need to flip pnc */
1811                         if(cnst != new_cmp_b) {
1812                                 pnc = get_inversed_pnc(pnc);
1813                         }
1814
1815                         if ((pnc == pn_Cmp_Eq || pnc == pn_Cmp_Lg) && mode_is_int(get_irn_mode(expr))) {
1816                                 if (get_ia32_immop_type(cnst) == ia32_ImmConst &&
1817                                         classify_tarval(get_ia32_Immop_tarval(cnst)) == TV_CLASSIFY_NULL)
1818                                 {
1819                                         /* a Cmp A =/!= 0 */
1820                                         ir_node    *op1  = expr;
1821                                         ir_node    *op2  = expr;
1822                                         int is_and = 0;
1823
1824                                         /* check, if expr is an only once used And operation */
1825                                         if (is_ia32_And(expr) && get_irn_n_edges(expr)) {
1826                                                 op1 = get_irn_n(expr, 2);
1827                                                 op2 = get_irn_n(expr, 3);
1828
1829                                                 is_and = (is_ia32_ImmConst(expr) || is_ia32_ImmSymConst(expr));
1830                                         }
1831                                         res = new_rd_ia32_TestJmp(dbgi, irg, block, op1, op2);
1832                                         set_ia32_pncode(res, pnc);
1833
1834                                         if (is_and) {
1835                                                 copy_ia32_Immop_attr(res, expr);
1836                                         }
1837
1838                                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1839                                         return res;
1840                                 }
1841                         }
1842
1843                         if (mode_is_float(cmp_mode)) {
1844                                 FP_USED(env->cg);
1845                                 if (USE_SSE2(env->cg)) {
1846                                         res = new_rd_ia32_xCondJmp(dbgi, irg, block, noreg, noreg, expr, noreg, nomem);
1847                                         set_ia32_ls_mode(res, cmp_mode);
1848                                 } else {
1849                                         assert(0);
1850                                 }
1851                         }
1852                         else {
1853                                 res = new_rd_ia32_CondJmp(dbgi, irg, block, noreg, noreg, expr, noreg, nomem);
1854                         }
1855                         copy_ia32_Immop_attr(res, cnst);
1856                 }
1857                 else {
1858                         ir_mode *cmp_mode = get_irn_mode(cmp_a);
1859
1860                         if (mode_is_float(cmp_mode)) {
1861                                 FP_USED(env->cg);
1862                                 if (USE_SSE2(env->cg)) {
1863                                         res = new_rd_ia32_xCondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1864                                         set_ia32_ls_mode(res, cmp_mode);
1865                                 } else {
1866                                         ir_node *proj_eax;
1867                                         res = new_rd_ia32_vfCondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1868                                         proj_eax = new_r_Proj(irg, block, res, mode_Iu, pn_ia32_vfCondJmp_temp_reg_eax);
1869                                         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, &proj_eax);
1870                                 }
1871                         }
1872                         else {
1873                                 res = new_rd_ia32_CondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1874                                 set_ia32_commutative(res);
1875                         }
1876                 }
1877
1878                 set_ia32_pncode(res, pnc);
1879                 // Matze: disabled for now, because the default collect_spills_walker
1880                 // is not able to detect the mode of the spilled value
1881                 // moreover, the lea optimize phase freely exchanges left/right
1882                 // without updating the pnc
1883                 //set_ia32_am_support(res, ia32_am_Source);
1884         }
1885         else {
1886                 /* determine the smallest switch case value */
1887                 int switch_min = INT_MAX;
1888                 const ir_edge_t *edge;
1889                 ir_node *new_sel = transform_node(env, sel);
1890
1891                 foreach_out_edge(node, edge) {
1892                         int pn = get_Proj_proj(get_edge_src_irn(edge));
1893                         switch_min = pn < switch_min ? pn : switch_min;
1894                 }
1895
1896                 if (switch_min) {
1897                         /* if smallest switch case is not 0 we need an additional sub */
1898                         res = new_rd_ia32_Lea(dbgi, irg, block, new_sel, noreg);
1899                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1900                         add_ia32_am_offs_int(res, -switch_min);
1901                         set_ia32_am_flavour(res, ia32_am_OB);
1902                         set_ia32_am_support(res, ia32_am_Source);
1903                         set_ia32_op_type(res, ia32_AddrModeS);
1904                 }
1905
1906                 res = new_rd_ia32_SwitchJmp(dbgi, irg, block, switch_min ? res : new_sel, mode_T);
1907                 set_ia32_pncode(res, get_Cond_defaultProj(node));
1908         }
1909
1910         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1911         return res;
1912 }
1913
1914
1915
1916 /**
1917  * Transforms a CopyB node.
1918  *
1919  * @param env   The transformation environment
1920  * @return The transformed node.
1921  */
1922 static ir_node *gen_CopyB(ia32_transform_env_t *env, ir_node *node) {
1923         ir_node  *res      = NULL;
1924         ir_graph *irg      = env->irg;
1925         dbg_info *dbgi      = get_irn_dbg_info(node);
1926         ir_node  *block    = transform_node(env, get_nodes_block(node));
1927         ir_node  *src      = get_CopyB_src(node);
1928         ir_node  *new_src  = transform_node(env, src);
1929         ir_node  *dst      = get_CopyB_dst(node);
1930         ir_node  *new_dst  = transform_node(env, dst);
1931         ir_node  *mem      = get_CopyB_mem(node);
1932         ir_node  *new_mem  = transform_node(env, mem);
1933         int      size      = get_type_size_bytes(get_CopyB_type(node));
1934         ir_mode  *dst_mode = get_irn_mode(dst);
1935         ir_mode  *src_mode = get_irn_mode(src);
1936         int      rem;
1937         ir_node  *in[3];
1938
1939         /* If we have to copy more than 32 bytes, we use REP MOVSx and */
1940         /* then we need the size explicitly in ECX.                    */
1941         if (size >= 32 * 4) {
1942                 rem = size & 0x3; /* size % 4 */
1943                 size >>= 2;
1944
1945                 res = new_rd_ia32_Const(dbgi, irg, block);
1946                 add_irn_dep(res, be_abi_get_start_barrier(env->cg->birg->abi));
1947                 set_ia32_Immop_tarval(res, new_tarval_from_long(size, mode_Is));
1948
1949                 res = new_rd_ia32_CopyB(dbgi, irg, block, new_dst, new_src, res, new_mem);
1950                 set_ia32_Immop_tarval(res, new_tarval_from_long(rem, mode_Is));
1951
1952                 /* ok: now attach Proj's because rep movsd will destroy esi, edi and ecx */
1953                 in[0] = new_r_Proj(irg, block, res, dst_mode, pn_ia32_CopyB_DST);
1954                 in[1] = new_r_Proj(irg, block, res, src_mode, pn_ia32_CopyB_SRC);
1955                 in[2] = new_r_Proj(irg, block, res, mode_Iu, pn_ia32_CopyB_CNT);
1956                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 3, in);
1957         }
1958         else {
1959                 res = new_rd_ia32_CopyB_i(dbgi, irg, block, new_dst, new_src, new_mem);
1960                 set_ia32_Immop_tarval(res, new_tarval_from_long(size, mode_Is));
1961
1962                 /* ok: now attach Proj's because movsd will destroy esi and edi */
1963                 in[0] = new_r_Proj(irg, block, res, dst_mode, pn_ia32_CopyB_i_DST);
1964                 in[1] = new_r_Proj(irg, block, res, src_mode, pn_ia32_CopyB_i_SRC);
1965                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 2, in);
1966         }
1967
1968         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1969
1970         return res;
1971 }
1972
1973
1974 #if 0
1975 /**
1976  * Transforms a Mux node into CMov.
1977  *
1978  * @param env   The transformation environment
1979  * @return The transformed node.
1980  */
1981 static ir_node *gen_Mux(ia32_transform_env_t *env, ir_node *node) {
1982         ir_node *new_op = new_rd_ia32_CMov(env->dbgi, env->irg, env->block, \
1983                 get_Mux_sel(node), get_Mux_false(node), get_Mux_true(node), env->mode);
1984
1985         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1986
1987         return new_op;
1988 }
1989 #endif
1990
1991 typedef ir_node *cmov_func_t(dbg_info *db, ir_graph *irg, ir_node *block,
1992                              ir_node *cmp_a, ir_node *cmp_b, ir_node *psi_true,
1993                              ir_node *psi_default);
1994
1995 /**
1996  * Transforms a Psi node into CMov.
1997  *
1998  * @param env   The transformation environment
1999  * @return The transformed node.
2000  */
2001 static ir_node *gen_Psi(ia32_transform_env_t *env, ir_node *node) {
2002         ia32_code_gen_t *cg   = env->cg;
2003         ir_graph *irg         = env->irg;
2004         dbg_info *dbgi         = get_irn_dbg_info(node);
2005         ir_mode  *mode        = get_irn_mode(node);
2006         ir_node  *block       = transform_node(env, get_nodes_block(node));
2007         ir_node  *cmp_proj    = get_Mux_sel(node);
2008         ir_node  *psi_true    = get_Psi_val(node, 0);
2009         ir_node  *psi_default = get_Psi_default(node);
2010         ir_node  *new_psi_true = transform_node(env, psi_true);
2011         ir_node  *new_psi_default = transform_node(env, psi_default);
2012         ir_node  *noreg       = ia32_new_NoReg_gp(cg);
2013         ir_node  *nomem       = new_rd_NoMem(irg);
2014         ir_node  *cmp, *cmp_a, *cmp_b, *and1, *and2, *new_op = NULL;
2015         ir_node  *new_cmp_a, *new_cmp_b;
2016         ir_mode  *cmp_mode;
2017         int      pnc;
2018
2019         assert(get_irn_mode(cmp_proj) == mode_b && "Condition for Psi must have mode_b");
2020
2021         cmp   = get_Proj_pred(cmp_proj);
2022         cmp_a = get_Cmp_left(cmp);
2023         cmp_b = get_Cmp_right(cmp);
2024         cmp_mode = get_irn_mode(cmp_a);
2025         new_cmp_a = transform_node(env, cmp_a);
2026         new_cmp_b = transform_node(env, cmp_b);
2027
2028         pnc   = get_Proj_proj(cmp_proj);
2029         if (mode_is_float(cmp_mode) || !mode_is_signed(cmp_mode)) {
2030                 pnc |= ia32_pn_Cmp_Unsigned;
2031         }
2032
2033         if (mode_is_float(mode)) {
2034                 /* floating point psi */
2035                 FP_USED(cg);
2036
2037                 /* 1st case: compare operands are float too */
2038                 if (USE_SSE2(cg)) {
2039                         /* psi(cmp(a, b), t, f) can be done as: */
2040                         /* tmp = cmp a, b                       */
2041                         /* tmp2 = t and tmp                     */
2042                         /* tmp3 = f and not tmp                 */
2043                         /* res  = tmp2 or tmp3                  */
2044
2045                         /* in case the compare operands are int, we move them into xmm register */
2046                         if (! mode_is_float(get_irn_mode(cmp_a))) {
2047                                 new_cmp_a = gen_sse_conv_int2float(cg, dbgi, irg, block, new_cmp_a, node, mode_xmm);
2048                                 new_cmp_b = gen_sse_conv_int2float(cg, dbgi, irg, block, new_cmp_b, node, mode_xmm);
2049
2050                                 pnc |= 8;  /* transform integer compare to fp compare */
2051                         }
2052
2053                         new_op = new_rd_ia32_xCmp(dbgi, irg, block, noreg, noreg, new_cmp_a, new_cmp_b, nomem);
2054                         set_ia32_pncode(new_op, pnc);
2055                         set_ia32_am_support(new_op, ia32_am_Source);
2056                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2057
2058                         and1 = new_rd_ia32_xAnd(dbgi, irg, block, noreg, noreg, new_psi_true, new_op, nomem);
2059                         set_ia32_am_support(and1, ia32_am_None);
2060                         set_ia32_commutative(and1);
2061                         SET_IA32_ORIG_NODE(and1, ia32_get_old_node_name(cg, node));
2062
2063                         and2 = new_rd_ia32_xAndNot(dbgi, irg, block, noreg, noreg, new_op, new_psi_default, nomem);
2064                         set_ia32_am_support(and2, ia32_am_None);
2065                         set_ia32_commutative(and2);
2066                         SET_IA32_ORIG_NODE(and2, ia32_get_old_node_name(cg, node));
2067
2068                         new_op = new_rd_ia32_xOr(dbgi, irg, block, noreg, noreg, and1, and2, nomem);
2069                         set_ia32_am_support(new_op, ia32_am_None);
2070                         set_ia32_commutative(new_op);
2071                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2072                 }
2073                 else {
2074                         /* x87 FPU */
2075                         new_op = new_rd_ia32_vfCMov(dbgi, irg, block, new_cmp_a, new_cmp_b, new_psi_true, new_psi_default);
2076                         set_ia32_pncode(new_op, pnc);
2077                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2078                 }
2079         }
2080         else {
2081                 /* integer psi */
2082                 construct_binop_func *set_func  = NULL;
2083                 cmov_func_t          *cmov_func = NULL;
2084
2085                 if (mode_is_float(get_irn_mode(cmp_a))) {
2086                         /* 1st case: compare operands are floats */
2087                         FP_USED(cg);
2088
2089                         if (USE_SSE2(cg)) {
2090                                 /* SSE FPU */
2091                                 set_func  = new_rd_ia32_xCmpSet;
2092                                 cmov_func = new_rd_ia32_xCmpCMov;
2093                         }
2094                         else {
2095                                 /* x87 FPU */
2096                                 set_func  = new_rd_ia32_vfCmpSet;
2097                                 cmov_func = new_rd_ia32_vfCmpCMov;
2098                         }
2099
2100                         pnc &= ~0x8; /* fp compare -> int compare */
2101                 }
2102                 else {
2103                         /* 2nd case: compare operand are integer too */
2104                         set_func  = new_rd_ia32_CmpSet;
2105                         cmov_func = new_rd_ia32_CmpCMov;
2106                 }
2107
2108                 /* check for special case first: And/Or -- Cmp with 0 -- Psi */
2109                 if (is_ia32_Const_0(new_cmp_b) && is_Proj(new_cmp_a) && (is_ia32_And(get_Proj_pred(new_cmp_a)) || is_ia32_Or(get_Proj_pred(new_cmp_a)))) {
2110                         if (is_ia32_Const_1(psi_true) && is_ia32_Const_0(psi_default)) {
2111                                 /* first case for SETcc: default is 0, set to 1 iff condition is true */
2112                                 new_op = new_rd_ia32_PsiCondSet(dbgi, irg, block, new_cmp_a);
2113                                 set_ia32_pncode(new_op, pnc);
2114                         }
2115                         else if (is_ia32_Const_0(psi_true) && is_ia32_Const_1(psi_default)) {
2116                                 /* second case for SETcc: default is 1, set to 0 iff condition is true: */
2117                                 /*                        we invert condition and set default to 0      */
2118                                 new_op = new_rd_ia32_PsiCondSet(dbgi, irg, block, new_cmp_a);
2119                                 set_ia32_pncode(new_op, get_inversed_pnc(pnc));
2120                         }
2121                         else {
2122                                 /* otherwise: use CMOVcc */
2123                                 new_op = new_rd_ia32_PsiCondCMov(dbgi, irg, block, new_cmp_a, new_psi_true, new_psi_default);
2124                                 set_ia32_pncode(new_op, pnc);
2125                         }
2126
2127                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2128                 }
2129                 else {
2130                         if (is_ia32_Const_1(psi_true) && is_ia32_Const_0(psi_default)) {
2131                                 /* first case for SETcc: default is 0, set to 1 iff condition is true */
2132                                 new_op = gen_binop(env, node, cmp_a, cmp_b, set_func);
2133                                 set_ia32_pncode(new_op, pnc);
2134                                 set_ia32_am_support(new_op, ia32_am_Source);
2135                         }
2136                         else if (is_ia32_Const_0(psi_true) && is_ia32_Const_1(psi_default)) {
2137                                 /* second case for SETcc: default is 1, set to 0 iff condition is true: */
2138                                 /*                        we invert condition and set default to 0      */
2139                                 new_op = gen_binop(env, node, cmp_a, cmp_b, set_func);
2140                                 set_ia32_pncode(new_op, get_inversed_pnc(pnc));
2141                                 set_ia32_am_support(new_op, ia32_am_Source);
2142                         }
2143                         else {
2144                                 /* otherwise: use CMOVcc */
2145                                 new_op = cmov_func(dbgi, irg, block, new_cmp_a, new_cmp_b, new_psi_true, new_psi_default);
2146                                 set_ia32_pncode(new_op, pnc);
2147                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2148                         }
2149                 }
2150         }
2151
2152         return new_op;
2153 }
2154
2155
2156 /**
2157  * Following conversion rules apply:
2158  *
2159  *  INT -> INT
2160  * ============
2161  *  1) n bit -> m bit   n > m (downscale)
2162  *     always ignored
2163  *  2) n bit -> m bit   n == m   (sign change)
2164  *     always ignored
2165  *  3) n bit -> m bit   n < m (upscale)
2166  *     a) source is signed:    movsx
2167  *     b) source is unsigned:  and with lower bits sets
2168  *
2169  *  INT -> FLOAT
2170  * ==============
2171  *  SSE(1/2) convert to float or double (cvtsi2ss/sd)
2172  *
2173  *  FLOAT -> INT
2174  * ==============
2175  *  SSE(1/2) convert from float or double to 32bit int (cvtss/sd2si)
2176  *
2177  *  FLOAT -> FLOAT
2178  * ================
2179  *  SSE(1/2) convert from float or double to double or float (cvtss/sd2sd/ss)
2180  *  x87 is mode_E internally, conversions happen only at load and store
2181  *  in non-strict semantic
2182  */
2183
2184 /**
2185  * Create a conversion from x87 state register to general purpose.
2186  */
2187 static ir_node *gen_x87_fp_to_gp(ia32_transform_env_t *env, ir_node *node) {
2188         ia32_code_gen_t *cg    = env->cg;
2189         ir_graph        *irg   = env->irg;
2190         dbg_info        *dbgi   = get_irn_dbg_info(node);
2191         ir_node         *block = transform_node(env, get_nodes_block(node));
2192         ir_node         *noreg = ia32_new_NoReg_gp(cg);
2193         ir_node         *op    = get_Conv_op(node);
2194         ir_node         *new_op = transform_node(env, op);
2195         ir_node         *fist, *load;
2196         ir_node         *trunc_mode = ia32_new_Fpu_truncate(cg);
2197
2198         /* do a fist */
2199         fist = new_rd_ia32_vfist(dbgi, irg, block,
2200                         get_irg_frame(irg), noreg, new_op, trunc_mode, new_NoMem());
2201
2202         set_ia32_use_frame(fist);
2203         set_ia32_am_support(fist, ia32_am_Dest);
2204         set_ia32_op_type(fist, ia32_AddrModeD);
2205         set_ia32_am_flavour(fist, ia32_am_B);
2206         set_ia32_ls_mode(fist, mode_Iu);
2207         SET_IA32_ORIG_NODE(fist, ia32_get_old_node_name(cg, node));
2208
2209         /* do a Load */
2210         load = new_rd_ia32_Load(dbgi, irg, block, get_irg_frame(irg), noreg, fist);
2211
2212         set_ia32_use_frame(load);
2213         set_ia32_am_support(load, ia32_am_Source);
2214         set_ia32_op_type(load, ia32_AddrModeS);
2215         set_ia32_am_flavour(load, ia32_am_B);
2216         set_ia32_ls_mode(load, mode_Iu);
2217         SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(cg, node));
2218
2219         return new_r_Proj(irg, block, load, mode_Iu, pn_ia32_Load_res);
2220 }
2221
2222 /**
2223  * Create a conversion from general purpose to x87 register
2224  */
2225 static ir_node *gen_x87_gp_to_fp(ia32_transform_env_t *env, ir_node *node, ir_mode *src_mode) {
2226 #ifndef NDEBUG
2227         ia32_code_gen_t *cg = env->cg;
2228 #endif
2229         ir_graph  *irg    = env->irg;
2230         dbg_info  *dbgi   = get_irn_dbg_info(node);
2231         ir_node   *block  = transform_node(env, get_nodes_block(node));
2232         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
2233         ir_node   *nomem  = new_NoMem();
2234         ir_node   *op     = get_Conv_op(node);
2235         ir_node   *new_op = transform_node(env, op);
2236         ir_node   *fild, *store;
2237         int       src_bits;
2238
2239         /* first convert to 32 bit if necessary */
2240         src_bits = get_mode_size_bits(src_mode);
2241         if (src_bits == 8) {
2242                 new_op = new_rd_ia32_Conv_I2I8Bit(dbgi, irg, block, noreg, noreg, new_op, nomem);
2243                 set_ia32_am_support(new_op, ia32_am_Source);
2244                 set_ia32_ls_mode(new_op, src_mode);
2245                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2246         } else if (src_bits < 32) {
2247                 new_op = new_rd_ia32_Conv_I2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2248                 set_ia32_am_support(new_op, ia32_am_Source);
2249                 set_ia32_ls_mode(new_op, src_mode);
2250                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2251         }
2252
2253         /* do a store */
2254         store = new_rd_ia32_Store(dbgi, irg, block, get_irg_frame(irg), noreg, new_op, nomem);
2255
2256         set_ia32_use_frame(store);
2257         set_ia32_am_support(store, ia32_am_Dest);
2258         set_ia32_op_type(store, ia32_AddrModeD);
2259         set_ia32_am_flavour(store, ia32_am_OB);
2260         set_ia32_ls_mode(store, mode_Iu);
2261
2262         /* do a fild */
2263         fild = new_rd_ia32_vfild(dbgi, irg, block, get_irg_frame(irg), noreg, store);
2264
2265         set_ia32_use_frame(fild);
2266         set_ia32_am_support(fild, ia32_am_Source);
2267         set_ia32_op_type(fild, ia32_AddrModeS);
2268         set_ia32_am_flavour(fild, ia32_am_OB);
2269         set_ia32_ls_mode(fild, mode_Iu);
2270
2271         return new_r_Proj(irg, block, fild, mode_vfp, pn_ia32_vfild_res);
2272 }
2273
2274 /**
2275  * Transforms a Conv node.
2276  *
2277  * @param env   The transformation environment
2278  * @return The created ia32 Conv node
2279  */
2280 static ir_node *gen_Conv(ia32_transform_env_t *env, ir_node *node) {
2281         ir_graph *irg      = env->irg;
2282         dbg_info *dbgi      = get_irn_dbg_info(node);
2283         ir_node  *op       = get_Conv_op(node);
2284         ir_mode  *src_mode = get_irn_mode(op);
2285         ir_mode  *tgt_mode = get_irn_mode(node);
2286         int      src_bits  = get_mode_size_bits(src_mode);
2287         int      tgt_bits  = get_mode_size_bits(tgt_mode);
2288         ir_node  *block    = transform_node(env, get_nodes_block(node));
2289         ir_node  *res;
2290         ir_node  *noreg    = ia32_new_NoReg_gp(env->cg);
2291         ir_node  *nomem    = new_rd_NoMem(irg);
2292         ir_node  *new_op   = transform_node(env, op);
2293
2294         if (src_mode == tgt_mode) {
2295                 /* this should be optimized already, but who knows... */
2296                 DEBUG_ONLY(ir_fprintf(stderr, "Debug warning: conv %+F is pointless\n", node));
2297                 DB((dbg, LEVEL_1, "killed Conv(mode, mode) ..."));
2298                 return new_op;
2299         }
2300
2301         if (mode_is_float(src_mode)) {
2302                 /* we convert from float ... */
2303                 if (mode_is_float(tgt_mode)) {
2304                         /* ... to float */
2305                         if (USE_SSE2(env->cg)) {
2306                                 DB((dbg, LEVEL_1, "create Conv(float, float) ..."));
2307                                 res = new_rd_ia32_Conv_FP2FP(dbgi, irg, block, noreg, noreg, new_op, nomem);
2308                                 set_ia32_ls_mode(res, tgt_mode);
2309                         } else {
2310                                 // Matze: TODO what about strict convs?
2311                                 DB((dbg, LEVEL_1, "killed Conv(float, float) ..."));
2312                                 return new_op;
2313                         }
2314                 } else {
2315                         /* ... to int */
2316                         DB((dbg, LEVEL_1, "create Conv(float, int) ..."));
2317                         if (USE_SSE2(env->cg)) {
2318                                 res = new_rd_ia32_Conv_FP2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2319                                 set_ia32_ls_mode(res, src_mode);
2320                         } else {
2321                                 return gen_x87_fp_to_gp(env, node);
2322                         }
2323                 }
2324         } else {
2325                 /* we convert from int ... */
2326                 if (mode_is_float(tgt_mode)) {
2327                         FP_USED(env->cg);
2328                         /* ... to float */
2329                         DB((dbg, LEVEL_1, "create Conv(int, float) ..."));
2330                         if (USE_SSE2(env->cg)) {
2331                                 res = new_rd_ia32_Conv_I2FP(dbgi, irg, block, noreg, noreg, new_op, nomem);
2332                                 set_ia32_ls_mode(res, tgt_mode);
2333                                 if(src_bits == 32) {
2334                                         set_ia32_am_support(res, ia32_am_Source);
2335                                 }
2336                         } else {
2337                                 return gen_x87_gp_to_fp(env, node, src_mode);
2338                         }
2339                 } else {
2340                         /* to int */
2341                         ir_mode *smaller_mode;
2342                         int smaller_bits;
2343
2344                         if (src_bits == tgt_bits) {
2345                                 DB((dbg, LEVEL_1, "omitting unnecessary Conv(%+F, %+F) ...", src_mode, tgt_mode));
2346                                 return new_op;
2347                         }
2348
2349                         if(src_bits < tgt_bits) {
2350                                 smaller_mode = src_mode;
2351                                 smaller_bits = src_bits;
2352                         } else {
2353                                 smaller_mode = tgt_mode;
2354                                 smaller_bits = tgt_bits;
2355                         }
2356
2357                         // The following is not correct, we can't change the mode,
2358                         // maybe others are using the load too
2359                         // better move this to a separate phase!
2360 #if 0
2361                         /* ... to int */
2362                         if(is_Proj(new_op)) {
2363                                 /* load operations do already sign/zero extend, so we have
2364                                  * nothing left to do */
2365                                 ir_node *pred = get_Proj_pred(new_op);
2366                                 if(is_ia32_Load(pred)) {
2367                                         set_ia32_ls_mode(pred, smaller_mode);
2368                                         return new_op;
2369                                 }
2370                         }
2371 #endif
2372
2373                         DB((dbg, LEVEL_1, "create Conv(int, int) ...", src_mode, tgt_mode));
2374                         if (smaller_bits == 8) {
2375                                 res = new_rd_ia32_Conv_I2I8Bit(dbgi, irg, block, noreg, noreg, new_op, nomem);
2376                                 set_ia32_ls_mode(res, smaller_mode);
2377                         } else {
2378                                 res = new_rd_ia32_Conv_I2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2379                                 set_ia32_ls_mode(res, smaller_mode);
2380                         }
2381                         set_ia32_am_support(res, ia32_am_Source);
2382                 }
2383         }
2384
2385         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
2386
2387         return res;
2388 }
2389
2390
2391
2392 /********************************************
2393  *  _                          _
2394  * | |                        | |
2395  * | |__   ___ _ __   ___   __| | ___  ___
2396  * | '_ \ / _ \ '_ \ / _ \ / _` |/ _ \/ __|
2397  * | |_) |  __/ | | | (_) | (_| |  __/\__ \
2398  * |_.__/ \___|_| |_|\___/ \__,_|\___||___/
2399  *
2400  ********************************************/
2401
2402 static ir_node *gen_be_StackParam(ia32_transform_env_t *env, ir_node *node) {
2403         ir_node   *new_op = NULL;
2404         ir_graph  *irg    = env->irg;
2405         dbg_info  *dbgi    = get_irn_dbg_info(node);
2406         ir_node   *block  = transform_node(env, get_nodes_block(node));
2407         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
2408         ir_node   *nomem  = new_rd_NoMem(env->irg);
2409         ir_node   *ptr    = get_irn_n(node, 0);
2410         ir_node  *new_ptr = transform_node(env, ptr);
2411         ir_entity *ent    = arch_get_frame_entity(env->cg->arch_env, node);
2412         ir_mode   *load_mode = get_irn_mode(node);
2413         ir_mode   *proj_mode;
2414         long      pn_res;
2415
2416         if (mode_is_float(load_mode)) {
2417                 FP_USED(env->cg);
2418                 if (USE_SSE2(env->cg)) {
2419                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, nomem);
2420                         pn_res    = pn_ia32_xLoad_res;
2421                         proj_mode = mode_xmm;
2422                 } else {
2423                         new_op = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, nomem);
2424                         pn_res    = pn_ia32_vfld_res;
2425                         proj_mode = mode_vfp;
2426                 }
2427         } else {
2428                 new_op = new_rd_ia32_Load(dbgi, irg, block, new_ptr, noreg, nomem);
2429                 proj_mode = mode_Iu;
2430                 pn_res = pn_ia32_Load_res;
2431         }
2432
2433         set_ia32_frame_ent(new_op, ent);
2434         set_ia32_use_frame(new_op);
2435
2436         set_ia32_am_support(new_op, ia32_am_Source);
2437         set_ia32_op_type(new_op, ia32_AddrModeS);
2438         set_ia32_am_flavour(new_op, ia32_am_B);
2439         set_ia32_ls_mode(new_op, load_mode);
2440         set_ia32_flags(new_op, get_ia32_flags(new_op) | arch_irn_flags_rematerializable);
2441
2442         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2443
2444         return new_rd_Proj(dbgi, irg, block, new_op, proj_mode, pn_res);
2445 }
2446
2447 /**
2448  * Transforms a FrameAddr into an ia32 Add.
2449  */
2450 static ir_node *gen_be_FrameAddr(ia32_transform_env_t *env, ir_node *node) {
2451         ir_graph *irg   = env->irg;
2452         dbg_info *dbgi   = get_irn_dbg_info(node);
2453         ir_node *block  = transform_node(env, get_nodes_block(node));
2454         ir_node *op     = get_irn_n(node, 0);
2455         ir_node *new_op = transform_node(env, op);
2456         ir_node *res;
2457         ir_node *noreg  = ia32_new_NoReg_gp(env->cg);
2458
2459         res = new_rd_ia32_Lea(dbgi, irg, block, new_op, noreg);
2460         set_ia32_frame_ent(res, arch_get_frame_entity(env->cg->arch_env, node));
2461         set_ia32_am_support(res, ia32_am_Full);
2462         set_ia32_use_frame(res);
2463         set_ia32_am_flavour(res, ia32_am_OB);
2464
2465         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
2466
2467         return res;
2468 }
2469
2470 /**
2471  * Transforms a FrameLoad into an ia32 Load.
2472  */
2473 static ir_node *gen_be_FrameLoad(ia32_transform_env_t *env, ir_node *node) {
2474         ir_node   *new_op  = NULL;
2475         ir_graph  *irg     = env->irg;
2476         dbg_info  *dbgi     = get_irn_dbg_info(node);
2477         ir_node   *block   = transform_node(env, get_nodes_block(node));
2478         ir_node   *noreg   = ia32_new_NoReg_gp(env->cg);
2479         ir_node   *mem     = get_irn_n(node, 0);
2480         ir_node   *ptr     = get_irn_n(node, 1);
2481         ir_node   *new_mem = transform_node(env, mem);
2482         ir_node   *new_ptr = transform_node(env, ptr);
2483         ir_entity *ent     = arch_get_frame_entity(env->cg->arch_env, node);
2484         ir_mode   *mode    = get_type_mode(get_entity_type(ent));
2485         ir_node   *projs[pn_Load_max];
2486
2487         ia32_collect_Projs(node, projs, pn_Load_max);
2488
2489         if (mode_is_float(mode)) {
2490                 FP_USED(env->cg);
2491                 if (USE_SSE2(env->cg)) {
2492                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, new_mem);
2493                 }
2494                 else {
2495                         new_op = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, new_mem);
2496                 }
2497         }
2498         else {
2499                 new_op = new_rd_ia32_Load(dbgi, irg, block, new_ptr, noreg, new_mem);
2500         }
2501
2502         set_ia32_frame_ent(new_op, ent);
2503         set_ia32_use_frame(new_op);
2504
2505         set_ia32_am_support(new_op, ia32_am_Source);
2506         set_ia32_op_type(new_op, ia32_AddrModeS);
2507         set_ia32_am_flavour(new_op, ia32_am_B);
2508         set_ia32_ls_mode(new_op, mode);
2509
2510         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2511
2512         return new_op;
2513 }
2514
2515
2516 /**
2517  * Transforms a FrameStore into an ia32 Store.
2518  */
2519 static ir_node *gen_be_FrameStore(ia32_transform_env_t *env, ir_node *node) {
2520         ir_node   *new_op  = NULL;
2521         ir_graph  *irg     = env->irg;
2522         dbg_info  *dbgi     = get_irn_dbg_info(node);
2523         ir_node   *block   = transform_node(env, get_nodes_block(node));
2524         ir_node   *noreg   = ia32_new_NoReg_gp(env->cg);
2525         ir_node   *mem     = get_irn_n(node, 0);
2526         ir_node   *ptr     = get_irn_n(node, 1);
2527         ir_node   *val     = get_irn_n(node, 2);
2528         ir_node   *new_mem = transform_node(env, mem);
2529         ir_node   *new_ptr = transform_node(env, ptr);
2530         ir_node   *new_val = transform_node(env, val);
2531         ir_entity *ent     = arch_get_frame_entity(env->cg->arch_env, node);
2532         ir_mode   *mode    = get_irn_mode(val);
2533
2534         if (mode_is_float(mode)) {
2535                 FP_USED(env->cg);
2536                 if (USE_SSE2(env->cg)) {
2537                         new_op = new_rd_ia32_xStore(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2538                 } else {
2539                         new_op = new_rd_ia32_vfst(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2540                 }
2541         } else if (get_mode_size_bits(mode) == 8) {
2542                 new_op = new_rd_ia32_Store8Bit(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2543         } else {
2544                 new_op = new_rd_ia32_Store(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2545         }
2546
2547         set_ia32_frame_ent(new_op, ent);
2548         set_ia32_use_frame(new_op);
2549
2550         set_ia32_am_support(new_op, ia32_am_Dest);
2551         set_ia32_op_type(new_op, ia32_AddrModeD);
2552         set_ia32_am_flavour(new_op, ia32_am_B);
2553         set_ia32_ls_mode(new_op, mode);
2554
2555         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2556
2557         return new_op;
2558 }
2559
2560 /**
2561  * In case SSE is used we need to copy the result from XMM0 to FPU TOS before return.
2562  */
2563 static ir_node *gen_be_Return(ia32_transform_env_t *env, ir_node *node) {
2564         ir_graph  *irg     = env->irg;
2565         dbg_info  *dbgi;
2566         ir_node   *block;
2567         ir_node   *ret_val = get_irn_n(node, be_pos_Return_val);
2568         ir_node   *ret_mem = get_irn_n(node, be_pos_Return_mem);
2569         ir_entity *ent     = get_irg_entity(irg);
2570         ir_type   *tp      = get_entity_type(ent);
2571         ir_type   *res_type;
2572         ir_mode   *mode;
2573         ir_node *frame, *sse_store, *fld, *mproj, *barrier;
2574         ir_node *new_barrier, *new_ret_val, *new_ret_mem;
2575         ir_node  **in;
2576         int pn_ret_val, pn_ret_mem, arity, i;
2577
2578         assert(ret_val != NULL);
2579         if (be_Return_get_n_rets(node) < 1 || ! USE_SSE2(env->cg)) {
2580                 return duplicate_node(env, node);
2581         }
2582
2583         res_type = get_method_res_type(tp, 0);
2584
2585         if (!is_Primitive_type(res_type)) {
2586                 return duplicate_node(env, node);
2587         }
2588
2589         mode = get_type_mode(res_type);
2590         if (!mode_is_float(mode)) {
2591                 return duplicate_node(env, node);
2592         }
2593
2594         assert(get_method_n_ress(tp) == 1);
2595
2596         pn_ret_val = get_Proj_proj(ret_val);
2597         pn_ret_mem = get_Proj_proj(ret_mem);
2598
2599         /* get the Barrier */
2600         barrier = get_Proj_pred(ret_val);
2601
2602         /* get result input of the Barrier */
2603         ret_val = get_irn_n(barrier, pn_ret_val);
2604         new_ret_val = transform_node(env, ret_val);
2605
2606         /* get memory input of the Barrier */
2607         ret_mem = get_irn_n(barrier, pn_ret_mem);
2608         new_ret_mem = transform_node(env, ret_mem);
2609
2610         frame = get_irg_frame(irg);
2611
2612         dbgi = get_irn_dbg_info(barrier);
2613         block = transform_node(env, get_nodes_block(barrier));
2614
2615         /* store xmm0 onto stack */
2616         sse_store = new_rd_ia32_xStoreSimple(dbgi, irg, block, frame, new_ret_val, new_ret_mem);
2617         set_ia32_ls_mode(sse_store, mode);
2618         set_ia32_op_type(sse_store, ia32_AddrModeD);
2619         set_ia32_use_frame(sse_store);
2620         set_ia32_am_flavour(sse_store, ia32_am_B);
2621         set_ia32_am_support(sse_store, ia32_am_Dest);
2622
2623         /* load into st0 */
2624         fld = new_rd_ia32_SetST0(dbgi, irg, block, frame, sse_store);
2625         set_ia32_ls_mode(fld, mode);
2626         set_ia32_op_type(fld, ia32_AddrModeS);
2627         set_ia32_use_frame(fld);
2628         set_ia32_am_flavour(fld, ia32_am_B);
2629         set_ia32_am_support(fld, ia32_am_Source);
2630
2631         mproj = new_r_Proj(irg, block, fld, mode_M, pn_ia32_SetST0_M);
2632         fld   = new_r_Proj(irg, block, fld, mode_vfp, pn_ia32_SetST0_res);
2633         arch_set_irn_register(env->cg->arch_env, fld, &ia32_vfp_regs[REG_VF0]);
2634
2635         /* create a new barrier */
2636         arity = get_irn_arity(barrier);
2637         in = alloca(arity * sizeof(in[0]));
2638         for(i = 0; i < arity; ++i) {
2639                 ir_node *new_in;
2640                 if(i == pn_ret_val) {
2641                         new_in = fld;
2642                 } else if(i == pn_ret_mem) {
2643                         new_in = mproj;
2644                 } else {
2645                         ir_node *in = get_irn_n(barrier, i);
2646                         new_in = transform_node(env, in);
2647                 }
2648                 in[i] = new_in;
2649         }
2650
2651         new_barrier = new_ir_node(dbgi, irg, block,
2652                                   get_irn_op(barrier), get_irn_mode(barrier),
2653                                   arity, in);
2654         copy_node_attr(barrier, new_barrier);
2655         duplicate_deps(env, barrier, new_barrier);
2656         set_new_node(barrier, new_barrier);
2657         mark_irn_visited(barrier);
2658
2659         /* transform normally */
2660         return duplicate_node(env, node);
2661 }
2662
2663 /**
2664  * Transform a be_AddSP into an ia32_AddSP. Eat up const sizes.
2665  */
2666 static ir_node *gen_be_AddSP(ia32_transform_env_t *env, ir_node *node) {
2667         ir_node *new_op;
2668         ir_graph *irg = env->irg;
2669         dbg_info *dbgi = get_irn_dbg_info(node);
2670         ir_node *block = transform_node(env, get_nodes_block(node));
2671         ir_node *sz = get_irn_n(node, be_pos_AddSP_size);
2672         ir_node *new_sz = transform_node(env, sz);
2673         ir_node *sp = get_irn_n(node, be_pos_AddSP_old_sp);
2674         ir_node *new_sp = transform_node(env, sp);
2675         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2676         ir_node *nomem = new_NoMem();
2677
2678         /* ia32 stack grows in reverse direction, make a SubSP */
2679         new_op = new_rd_ia32_SubSP(dbgi, irg, block, noreg, noreg, new_sp, new_sz, nomem);
2680         set_ia32_am_support(new_op, ia32_am_Source);
2681         fold_immediate(env, new_op, 2, 3);
2682
2683         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2684
2685         return new_op;
2686 }
2687
2688 /**
2689  * Transform a be_SubSP into an ia32_SubSP. Eat up const sizes.
2690  */
2691 static ir_node *gen_be_SubSP(ia32_transform_env_t *env, ir_node *node) {
2692         ir_node *new_op;
2693         ir_graph *irg = env->irg;
2694         dbg_info *dbgi = get_irn_dbg_info(node);
2695         ir_node *block = transform_node(env, get_nodes_block(node));
2696         ir_node *sz = get_irn_n(node, be_pos_SubSP_size);
2697         ir_node *new_sz = transform_node(env, sz);
2698         ir_node *sp = get_irn_n(node, be_pos_SubSP_old_sp);
2699         ir_node *new_sp = transform_node(env, sp);
2700         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2701         ir_node *nomem = new_NoMem();
2702
2703         /* ia32 stack grows in reverse direction, make an AddSP */
2704         new_op = new_rd_ia32_AddSP(dbgi, irg, block, noreg, noreg, new_sp, new_sz, nomem);
2705         set_ia32_am_support(new_op, ia32_am_Source);
2706         fold_immediate(env, new_op, 2, 3);
2707
2708         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2709
2710         return new_op;
2711 }
2712
2713 /**
2714  * This function just sets the register for the Unknown node
2715  * as this is not done during register allocation because Unknown
2716  * is an "ignore" node.
2717  */
2718 static ir_node *gen_Unknown(ia32_transform_env_t *env, ir_node *node) {
2719         ir_mode *mode = get_irn_mode(node);
2720
2721         if (mode_is_float(mode)) {
2722                 if (USE_SSE2(env->cg))
2723                         return ia32_new_Unknown_xmm(env->cg);
2724                 else
2725                         return ia32_new_Unknown_vfp(env->cg);
2726         } else if (mode_is_int(mode) || mode_is_reference(mode)) {
2727                 return ia32_new_Unknown_gp(env->cg);
2728         } else {
2729                 assert(0 && "unsupported Unknown-Mode");
2730         }
2731
2732         return NULL;
2733 }
2734
2735 /**
2736  * Change some phi modes
2737  */
2738 static ir_node *gen_Phi(ia32_transform_env_t *env, ir_node *node) {
2739         ir_graph *irg = env->irg;
2740         dbg_info *dbgi = get_irn_dbg_info(node);
2741         ir_mode *mode = get_irn_mode(node);
2742         ir_node *block = transform_node(env, get_nodes_block(node));
2743         ir_node *phi;
2744         int i, arity;
2745
2746         if(mode_is_int(mode) || mode_is_reference(mode)) {
2747                 // we shouldn't have any 64bit stuff around anymore
2748                 assert(get_mode_size_bits(mode) <= 32);
2749                 // all integer operations are on 32bit registers now
2750                 mode = mode_Iu;
2751         } else if(mode_is_float(mode)) {
2752                 assert(mode == mode_D || mode == mode_F);
2753                 if (USE_SSE2(env->cg)) {
2754                         mode = mode_xmm;
2755                 } else {
2756                         mode = mode_vfp;
2757                 }
2758         }
2759
2760         /* phi nodes allow loops, so we use the old arguments for now
2761          * and fix this later */
2762         phi = new_ir_node(dbgi, irg, block, op_Phi, mode, get_irn_arity(node),
2763                           get_irn_in(node) + 1);
2764         copy_node_attr(node, phi);
2765         duplicate_deps(env, node, phi);
2766
2767         set_new_node(node, phi);
2768
2769         /* put the preds in the worklist */
2770         arity = get_irn_arity(node);
2771         for(i = 0; i < arity; ++i) {
2772                 ir_node *pred = get_irn_n(node, i);
2773                 pdeq_putr(env->worklist, pred);
2774         }
2775
2776         return phi;
2777 }
2778
2779 /**********************************************************************
2780  *  _                                _                   _
2781  * | |                              | |                 | |
2782  * | | _____      _____ _ __ ___  __| |  _ __   ___   __| | ___  ___
2783  * | |/ _ \ \ /\ / / _ \ '__/ _ \/ _` | | '_ \ / _ \ / _` |/ _ \/ __|
2784  * | | (_) \ V  V /  __/ | |  __/ (_| | | | | | (_) | (_| |  __/\__ \
2785  * |_|\___/ \_/\_/ \___|_|  \___|\__,_| |_| |_|\___/ \__,_|\___||___/
2786  *
2787  **********************************************************************/
2788
2789 /* These nodes are created in intrinsic lowering (64bit -> 32bit) */
2790
2791 typedef ir_node *construct_load_func(dbg_info *db, ir_graph *irg, ir_node *block, ir_node *base, ir_node *index, \
2792                                      ir_node *mem);
2793
2794 typedef ir_node *construct_store_func(dbg_info *db, ir_graph *irg, ir_node *block, ir_node *base, ir_node *index, \
2795                                       ir_node *val, ir_node *mem);
2796
2797 /**
2798  * Transforms a lowered Load into a "real" one.
2799  */
2800 static ir_node *gen_lowered_Load(ia32_transform_env_t *env, ir_node *node, construct_load_func func, char fp_unit) {
2801         ir_graph *irg  = env->irg;
2802         dbg_info *dbgi  = get_irn_dbg_info(node);
2803         ir_node *block = transform_node(env, get_nodes_block(node));
2804         ir_mode *mode  = get_ia32_ls_mode(node);
2805         ir_node *new_op;
2806         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2807         ir_node *ptr   = get_irn_n(node, 0);
2808         ir_node *mem   = get_irn_n(node, 1);
2809         ir_node *new_ptr = transform_node(env, ptr);
2810         ir_node *new_mem = transform_node(env, mem);
2811
2812         /*
2813                 Could be that we have SSE2 unit, but due to 64Bit Div/Conv
2814                 lowering we have x87 nodes, so we need to enforce simulation.
2815         */
2816         if (mode_is_float(mode)) {
2817                 FP_USED(env->cg);
2818                 if (fp_unit == fp_x87)
2819                         FORCE_x87(env->cg);
2820         }
2821
2822         new_op  = func(dbgi, irg, block, new_ptr, noreg, new_mem);
2823
2824         set_ia32_am_support(new_op, ia32_am_Source);
2825         set_ia32_op_type(new_op, ia32_AddrModeS);
2826         set_ia32_am_flavour(new_op, ia32_am_OB);
2827         set_ia32_am_offs_int(new_op, 0);
2828         set_ia32_am_scale(new_op, 1);
2829         set_ia32_am_sc(new_op, get_ia32_am_sc(node));
2830         if(is_ia32_am_sc_sign(node))
2831                 set_ia32_am_sc_sign(new_op);
2832         set_ia32_ls_mode(new_op, get_ia32_ls_mode(node));
2833         if(is_ia32_use_frame(node)) {
2834                 set_ia32_frame_ent(new_op, get_ia32_frame_ent(node));
2835                 set_ia32_use_frame(new_op);
2836         }
2837
2838         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2839
2840         return new_op;
2841 }
2842
2843 /**
2844 * Transforms a lowered Store into a "real" one.
2845 */
2846 static ir_node *gen_lowered_Store(ia32_transform_env_t *env, ir_node *node, construct_store_func func, char fp_unit) {
2847         ir_graph *irg  = env->irg;
2848         dbg_info *dbgi  = get_irn_dbg_info(node);
2849         ir_node *block = transform_node(env, get_nodes_block(node));
2850         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2851         ir_mode *mode  = get_ia32_ls_mode(node);
2852         ir_node *new_op;
2853         long am_offs;
2854         ia32_am_flavour_t am_flav = ia32_B;
2855         ir_node *ptr = get_irn_n(node, 0);
2856         ir_node *val = get_irn_n(node, 1);
2857         ir_node *mem = get_irn_n(node, 2);
2858         ir_node *new_ptr = transform_node(env, ptr);
2859         ir_node *new_val = transform_node(env, val);
2860         ir_node *new_mem = transform_node(env, mem);
2861
2862         /*
2863                 Could be that we have SSE2 unit, but due to 64Bit Div/Conv
2864                 lowering we have x87 nodes, so we need to enforce simulation.
2865         */
2866         if (mode_is_float(mode)) {
2867                 FP_USED(env->cg);
2868                 if (fp_unit == fp_x87)
2869                         FORCE_x87(env->cg);
2870         }
2871
2872         new_op = func(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2873
2874         if ((am_offs = get_ia32_am_offs_int(node)) != 0) {
2875                 am_flav |= ia32_O;
2876                 add_ia32_am_offs_int(new_op, am_offs);
2877         }
2878
2879         set_ia32_am_support(new_op, ia32_am_Dest);
2880         set_ia32_op_type(new_op, ia32_AddrModeD);
2881         set_ia32_am_flavour(new_op, am_flav);
2882         set_ia32_ls_mode(new_op, mode);
2883         set_ia32_frame_ent(new_op, get_ia32_frame_ent(node));
2884         set_ia32_use_frame(new_op);
2885
2886         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2887
2888         return new_op;
2889 }
2890
2891
2892 /**
2893  * Transforms an ia32_l_XXX into a "real" XXX node
2894  *
2895  * @param env   The transformation environment
2896  * @return the created ia32 XXX node
2897  */
2898 #define GEN_LOWERED_OP(op)                                                     \
2899         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2900                 ir_mode *mode = get_irn_mode(node);                                    \
2901                 if (mode_is_float(mode))                                               \
2902                         FP_USED(env->cg);                                                  \
2903                 return gen_binop(env, node, get_binop_left(node),                      \
2904                                  get_binop_right(node), new_rd_ia32_##op);             \
2905         }
2906
2907 #define GEN_LOWERED_x87_OP(op)                                                 \
2908         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2909                 ir_node *new_op;                                                       \
2910                 FORCE_x87(env->cg);                                                    \
2911                 new_op = gen_binop_float(env, node, get_binop_left(node),              \
2912                                          get_binop_right(node), new_rd_ia32_##op);     \
2913                 return new_op;                                                         \
2914         }
2915
2916 #define GEN_LOWERED_UNOP(op)                                                   \
2917         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2918                 return gen_unop(env, node, get_unop_op(node), new_rd_ia32_##op);       \
2919         }
2920
2921 #define GEN_LOWERED_SHIFT_OP(op)                                               \
2922         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2923                 return gen_shift_binop(env, node, get_binop_left(node),                \
2924                                        get_binop_right(node), new_rd_ia32_##op);       \
2925         }
2926
2927 #define GEN_LOWERED_LOAD(op, fp_unit)                                          \
2928         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2929                 return gen_lowered_Load(env, node, new_rd_ia32_##op, fp_unit);         \
2930         }
2931
2932 #define GEN_LOWERED_STORE(op, fp_unit)                                         \
2933         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2934                 return gen_lowered_Store(env, node, new_rd_ia32_##op, fp_unit);        \
2935         }
2936
2937 GEN_LOWERED_OP(Adc)
2938 GEN_LOWERED_OP(Add)
2939 GEN_LOWERED_OP(Sbb)
2940 GEN_LOWERED_OP(Sub)
2941 GEN_LOWERED_OP(IMul)
2942 GEN_LOWERED_OP(Xor)
2943 GEN_LOWERED_x87_OP(vfprem)
2944 GEN_LOWERED_x87_OP(vfmul)
2945 GEN_LOWERED_x87_OP(vfsub)
2946
2947 GEN_LOWERED_UNOP(Neg)
2948
2949 GEN_LOWERED_LOAD(vfild, fp_x87)
2950 GEN_LOWERED_LOAD(Load, fp_none)
2951 /*GEN_LOWERED_STORE(vfist, fp_x87)
2952  *TODO
2953  */
2954 GEN_LOWERED_STORE(Store, fp_none)
2955
2956 static ir_node *gen_ia32_l_vfdiv(ia32_transform_env_t *env, ir_node *node) {
2957         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2958         ir_graph *irg = env->irg;
2959         dbg_info *dbgi = get_irn_dbg_info(node);
2960         ir_node *block = transform_node(env, get_nodes_block(node));
2961         ir_node *left = get_binop_left(node);
2962         ir_node *right = get_binop_right(node);
2963         ir_node *new_left = transform_node(env, left);
2964         ir_node *new_right = transform_node(env, right);
2965         ir_node *vfdiv;
2966
2967         vfdiv = new_rd_ia32_vfdiv(dbgi, irg, block, noreg, noreg, new_left, new_right, new_NoMem());
2968         clear_ia32_commutative(vfdiv);
2969         set_ia32_am_support(vfdiv, ia32_am_Source);
2970         fold_immediate(env, vfdiv, 2, 3);
2971
2972         SET_IA32_ORIG_NODE(vfdiv, ia32_get_old_node_name(env->cg, node));
2973
2974         FORCE_x87(env->cg);
2975
2976         return vfdiv;
2977 }
2978
2979 /**
2980  * Transforms a l_MulS into a "real" MulS node.
2981  *
2982  * @param env   The transformation environment
2983  * @return the created ia32 Mul node
2984  */
2985 static ir_node *gen_ia32_l_Mul(ia32_transform_env_t *env, ir_node *node) {
2986         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2987         ir_graph *irg = env->irg;
2988         dbg_info *dbgi = get_irn_dbg_info(node);
2989         ir_node *block = transform_node(env, get_nodes_block(node));
2990         ir_node *left = get_binop_left(node);
2991         ir_node *right = get_binop_right(node);
2992         ir_node *new_left = transform_node(env, left);
2993         ir_node *new_right = transform_node(env, right);
2994         ir_node *in[2];
2995
2996         /* l_Mul is already a mode_T node, so we create the Mul in the normal way   */
2997         /* and then skip the result Proj, because all needed Projs are already there. */
2998         ir_node *muls = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_left, new_right, new_NoMem());
2999         clear_ia32_commutative(muls);
3000         set_ia32_am_support(muls, ia32_am_Source);
3001         fold_immediate(env, muls, 2, 3);
3002
3003         /* check if EAX and EDX proj exist, add missing one */
3004         in[0] = new_rd_Proj(dbgi, irg, block, muls, mode_Iu, pn_EAX);
3005         in[1] = new_rd_Proj(dbgi, irg, block, muls, mode_Iu, pn_EDX);
3006         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 2, in);
3007
3008         SET_IA32_ORIG_NODE(muls, ia32_get_old_node_name(env->cg, node));
3009
3010         return muls;
3011 }
3012
3013 GEN_LOWERED_SHIFT_OP(Shl)
3014 GEN_LOWERED_SHIFT_OP(Shr)
3015 GEN_LOWERED_SHIFT_OP(Sar)
3016
3017 /**
3018  * Transforms a l_ShlD/l_ShrD into a ShlD/ShrD. Those nodes have 3 data inputs:
3019  * op1 - target to be shifted
3020  * op2 - contains bits to be shifted into target
3021  * op3 - shift count
3022  * Only op3 can be an immediate.
3023  */
3024 static ir_node *gen_lowered_64bit_shifts(ia32_transform_env_t *env, ir_node *node,
3025                                          ir_node *op1, ir_node *op2,
3026                                          ir_node *count) {
3027         ir_node   *new_op = NULL;
3028         ir_graph  *irg    = env->irg;
3029         dbg_info  *dbgi    = get_irn_dbg_info(node);
3030         ir_node   *block  = transform_node(env, get_nodes_block(node));
3031         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
3032         ir_node   *nomem  = new_NoMem();
3033         ir_node   *imm_op;
3034         ir_node   *new_op1 = transform_node(env, op1);
3035         ir_node   *new_op2 = transform_node(env, op2);
3036         ir_node   *new_count = transform_node(env, count);
3037         tarval    *tv;
3038
3039         assert(! mode_is_float(get_irn_mode(node)) && "Shift/Rotate with float not supported");
3040
3041         /* Check if immediate optimization is on and */
3042         /* if it's an operation with immediate.      */
3043         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_count) : NULL;
3044
3045         /* Limit imm_op within range imm8 */
3046         if (imm_op) {
3047                 tv = get_ia32_Immop_tarval(imm_op);
3048
3049                 if (tv) {
3050                         tv = tarval_mod(tv, new_tarval_from_long(32, get_tarval_mode(tv)));
3051                         set_ia32_Immop_tarval(imm_op, tv);
3052                 }
3053                 else {
3054                         imm_op = NULL;
3055                 }
3056         }
3057
3058         /* integer operations */
3059         if (imm_op) {
3060                 /* This is ShiftD with const */
3061                 DB((dbg, LEVEL_1, "ShiftD with immediate ..."));
3062
3063                 if (is_ia32_l_ShlD(node))
3064                         new_op = new_rd_ia32_ShlD(dbgi, irg, block, noreg, noreg,
3065                                                   new_op1, new_op2, noreg, nomem);
3066                 else
3067                         new_op = new_rd_ia32_ShrD(dbgi, irg, block, noreg, noreg,
3068                                                   new_op1, new_op2, noreg, nomem);
3069                 copy_ia32_Immop_attr(new_op, imm_op);
3070         }
3071         else {
3072                 /* This is a normal ShiftD */
3073                 DB((dbg, LEVEL_1, "ShiftD binop ..."));
3074                 if (is_ia32_l_ShlD(node))
3075                         new_op = new_rd_ia32_ShlD(dbgi, irg, block, noreg, noreg,
3076                                                   new_op1, new_op2, new_count, nomem);
3077                 else
3078                         new_op = new_rd_ia32_ShrD(dbgi, irg, block, noreg, noreg,
3079                                                   new_op1, new_op2, new_count, nomem);
3080         }
3081
3082         /* set AM support */
3083         // Matze: node has unsupported format (6inputs)
3084         //set_ia32_am_support(new_op, ia32_am_Dest);
3085
3086         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
3087
3088         set_ia32_emit_cl(new_op);
3089
3090         return new_op;
3091 }
3092
3093 static ir_node *gen_ia32_l_ShlD(ia32_transform_env_t *env, ir_node *node) {
3094         return gen_lowered_64bit_shifts(env, node, get_irn_n(node, 0),
3095                                         get_irn_n(node, 1), get_irn_n(node, 2));
3096 }
3097
3098 static ir_node *gen_ia32_l_ShrD(ia32_transform_env_t *env, ir_node *node) {
3099         return gen_lowered_64bit_shifts(env, node, get_irn_n(node, 0),
3100                                         get_irn_n(node, 1), get_irn_n(node, 2));
3101 }
3102
3103 /**
3104  * In case SSE Unit is used, the node is transformed into a vfst + xLoad.
3105  */
3106 static ir_node *gen_ia32_l_X87toSSE(ia32_transform_env_t *env, ir_node *node) {
3107         ia32_code_gen_t *cg  = env->cg;
3108         ir_node         *res = NULL;
3109         ir_graph        *irg = env->irg;
3110         dbg_info        *dbgi = get_irn_dbg_info(node);
3111         ir_node       *block = transform_node(env, get_nodes_block(node));
3112         ir_node         *ptr = get_irn_n(node, 0);
3113         ir_node         *val = get_irn_n(node, 1);
3114         ir_node     *new_val = transform_node(env, val);
3115         ir_node         *mem = get_irn_n(node, 2);
3116         ir_node *noreg, *new_ptr, *new_mem;
3117
3118         if (USE_SSE2(cg)) {
3119                 return new_val;
3120         }
3121
3122         noreg = ia32_new_NoReg_gp(cg);
3123         new_mem = transform_node(env, mem);
3124         new_ptr = transform_node(env, ptr);
3125
3126         /* Store x87 -> MEM */
3127         res = new_rd_ia32_vfst(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3128         set_ia32_frame_ent(res, get_ia32_frame_ent(node));
3129         set_ia32_use_frame(res);
3130         set_ia32_ls_mode(res, get_ia32_ls_mode(node));
3131         set_ia32_am_support(res, ia32_am_Dest);
3132         set_ia32_am_flavour(res, ia32_B);
3133         set_ia32_op_type(res, ia32_AddrModeD);
3134
3135         /* Load MEM -> SSE */
3136         res = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, res);
3137         set_ia32_frame_ent(res, get_ia32_frame_ent(node));
3138         set_ia32_use_frame(res);
3139         set_ia32_ls_mode(res, get_ia32_ls_mode(node));
3140         set_ia32_am_support(res, ia32_am_Source);
3141         set_ia32_am_flavour(res, ia32_B);
3142         set_ia32_op_type(res, ia32_AddrModeS);
3143         res = new_rd_Proj(dbgi, irg, block, res, mode_xmm, pn_ia32_xLoad_res);
3144
3145         return res;
3146 }
3147
3148 /**
3149  * In case SSE Unit is used, the node is transformed into a xStore + vfld.
3150  */
3151 static ir_node *gen_ia32_l_SSEtoX87(ia32_transform_env_t *env, ir_node *node) {
3152         ia32_code_gen_t *cg     = env->cg;
3153         ir_graph        *irg    = env->irg;
3154         dbg_info        *dbgi    = get_irn_dbg_info(node);
3155         ir_node         *block  = transform_node(env, get_nodes_block(node));
3156         ir_node         *res    = NULL;
3157         ir_node         *ptr    = get_irn_n(node, 0);
3158         ir_node         *val    = get_irn_n(node, 1);
3159         ir_node         *mem    = get_irn_n(node, 2);
3160         ir_entity       *fent   = get_ia32_frame_ent(node);
3161         ir_mode         *lsmode = get_ia32_ls_mode(node);
3162         ir_node        *new_val = transform_node(env, val);
3163         ir_node *noreg, *new_ptr, *new_mem;
3164         int             offs    = 0;
3165
3166         if (!USE_SSE2(cg)) {
3167                 /* SSE unit is not used -> skip this node. */
3168                 return new_val;
3169         }
3170
3171         noreg = ia32_new_NoReg_gp(cg);
3172         new_val = transform_node(env, val);
3173         new_ptr = transform_node(env, ptr);
3174         new_mem = transform_node(env, mem);
3175
3176         /* Store SSE -> MEM */
3177         if (is_ia32_xLoad(skip_Proj(new_val))) {
3178                 ir_node *ld = skip_Proj(new_val);
3179
3180                 /* we can vfld the value directly into the fpu */
3181                 fent = get_ia32_frame_ent(ld);
3182                 ptr  = get_irn_n(ld, 0);
3183                 offs = get_ia32_am_offs_int(ld);
3184         } else {
3185                 res = new_rd_ia32_xStore(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3186                 set_ia32_frame_ent(res, fent);
3187                 set_ia32_use_frame(res);
3188                 set_ia32_ls_mode(res, lsmode);
3189                 set_ia32_am_support(res, ia32_am_Dest);
3190                 set_ia32_am_flavour(res, ia32_B);
3191                 set_ia32_op_type(res, ia32_AddrModeD);
3192                 mem = res;
3193         }
3194
3195         /* Load MEM -> x87 */
3196         res = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, new_mem);
3197         set_ia32_frame_ent(res, fent);
3198         set_ia32_use_frame(res);
3199         set_ia32_ls_mode(res, lsmode);
3200         add_ia32_am_offs_int(res, offs);
3201         set_ia32_am_support(res, ia32_am_Source);
3202         set_ia32_am_flavour(res, ia32_B);
3203         set_ia32_op_type(res, ia32_AddrModeS);
3204         res = new_rd_Proj(dbgi, irg, block, res, mode_vfp, pn_ia32_vfld_res);
3205
3206         return res;
3207 }
3208
3209 /*********************************************************
3210  *                  _             _      _
3211  *                 (_)           | |    (_)
3212  *  _ __ ___   __ _ _ _ __     __| |_ __ ___   _____ _ __
3213  * | '_ ` _ \ / _` | | '_ \   / _` | '__| \ \ / / _ \ '__|
3214  * | | | | | | (_| | | | | | | (_| | |  | |\ V /  __/ |
3215  * |_| |_| |_|\__,_|_|_| |_|  \__,_|_|  |_| \_/ \___|_|
3216  *
3217  *********************************************************/
3218
3219 /**
3220  * the BAD transformer.
3221  */
3222 static ir_node *bad_transform(ia32_transform_env_t *env, ir_node *node) {
3223         panic("No transform function for %+F available.\n", node);
3224         return NULL;
3225 }
3226
3227 static ir_node *gen_End(ia32_transform_env_t *env, ir_node *node) {
3228         /* end has to be duplicated manually because we need a dynamic in array */
3229         ir_graph *irg = env->irg;
3230         dbg_info *dbgi = get_irn_dbg_info(node);
3231         ir_node *block = transform_node(env, get_nodes_block(node));
3232         int i, arity;
3233         ir_node *new_end;
3234
3235         new_end = new_ir_node(dbgi, irg, block, op_End, mode_X, -1, NULL);
3236         copy_node_attr(node, new_end);
3237         duplicate_deps(env, node, new_end);
3238
3239         set_irg_end(irg, new_end);
3240         set_new_node(new_end, new_end);
3241
3242         /* transform preds */
3243         arity = get_irn_arity(node);
3244         for(i = 0; i < arity; ++i) {
3245                 ir_node *in = get_irn_n(node, i);
3246                 ir_node *new_in = transform_node(env, in);
3247
3248                 add_End_keepalive(new_end, new_in);
3249         }
3250
3251         return new_end;
3252 }
3253
3254 static ir_node *gen_Block(ia32_transform_env_t *env, ir_node *node) {
3255         ir_graph *irg = env->irg;
3256         dbg_info *dbgi = get_irn_dbg_info(node);
3257         ir_node *start_block = env->old_anchors[anchor_start_block];
3258         ir_node *block;
3259         int i, arity;
3260
3261         /*
3262          * We replace the ProjX from the start node with a jump,
3263          * so the startblock has no preds anymore now
3264          */
3265         if(node == start_block) {
3266                 return new_rd_Block(dbgi, irg, 0, NULL);
3267         }
3268
3269         /* we use the old blocks for now, because jumps allow cycles in the graph
3270          * we have to fix this later */
3271         block = new_ir_node(dbgi, irg, NULL, get_irn_op(node), get_irn_mode(node),
3272                             get_irn_arity(node), get_irn_in(node) + 1);
3273         copy_node_attr(node, block);
3274
3275 #ifdef DEBUG_libfirm
3276         block->node_nr = node->node_nr;
3277 #endif
3278         set_new_node(node, block);
3279
3280         /* put the preds in the worklist */
3281         arity = get_irn_arity(node);
3282         for(i = 0; i < arity; ++i) {
3283                 ir_node *in = get_irn_n(node, i);
3284                 pdeq_putr(env->worklist, in);
3285         }
3286
3287         return block;
3288 }
3289
3290 static ir_node *gen_Proj_be_AddSP(ia32_transform_env_t *env, ir_node *node) {
3291         ir_graph *irg = env->irg;
3292         ir_node *block = transform_node(env, get_nodes_block(node));
3293         dbg_info *dbgi = get_irn_dbg_info(node);
3294         ir_node *pred = get_Proj_pred(node);
3295         ir_node *new_pred = transform_node(env, pred);
3296         long proj = get_Proj_proj(node);
3297
3298         if(proj == pn_be_AddSP_res) {
3299                 ir_node *res = new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_AddSP_stack);
3300                 arch_set_irn_register(env->cg->arch_env, res, &ia32_gp_regs[REG_ESP]);
3301                 return res;
3302         } else if(proj == pn_be_AddSP_M) {
3303                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_AddSP_M);
3304         }
3305
3306         assert(0);
3307         return new_rd_Unknown(irg, get_irn_mode(node));
3308 }
3309
3310 static ir_node *gen_Proj_be_SubSP(ia32_transform_env_t *env, ir_node *node) {
3311         ir_graph *irg = env->irg;
3312         ir_node *block = transform_node(env, get_nodes_block(node));
3313         dbg_info *dbgi = get_irn_dbg_info(node);
3314         ir_node *pred = get_Proj_pred(node);
3315         ir_node *new_pred = transform_node(env, pred);
3316         long proj = get_Proj_proj(node);
3317
3318         if(proj == pn_be_SubSP_res) {
3319                 ir_node *res = new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_AddSP_stack);
3320                 arch_set_irn_register(env->cg->arch_env, res, &ia32_gp_regs[REG_ESP]);
3321                 return res;
3322         } else if(proj == pn_be_SubSP_M) {
3323                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_SubSP_M);
3324         }
3325
3326         assert(0);
3327         return new_rd_Unknown(irg, get_irn_mode(node));
3328 }
3329
3330 static ir_node *gen_Proj_Load(ia32_transform_env_t *env, ir_node *node) {
3331         ir_graph *irg = env->irg;
3332         ir_node *block = transform_node(env, get_nodes_block(node));
3333         dbg_info *dbgi = get_irn_dbg_info(node);
3334         ir_node *pred = get_Proj_pred(node);
3335         ir_node *new_pred = transform_node(env, pred);
3336         long proj = get_Proj_proj(node);
3337
3338         /* renumber the proj */
3339         if(is_ia32_Load(new_pred)) {
3340                 if(proj == pn_Load_res) {
3341                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Load_res);
3342                 } else if(proj == pn_Load_M) {
3343                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Load_M);
3344                 }
3345         } else if(is_ia32_xLoad(new_pred)) {
3346                 if(proj == pn_Load_res) {
3347                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_xmm, pn_ia32_xLoad_res);
3348                 } else if(proj == pn_Load_M) {
3349                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_xLoad_M);
3350                 }
3351         } else if(is_ia32_vfld(new_pred)) {
3352                 if(proj == pn_Load_res) {
3353                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfld_res);
3354                 } else if(proj == pn_Load_M) {
3355                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfld_M);
3356                 }
3357         }
3358
3359         assert(0);
3360         return new_rd_Unknown(irg, get_irn_mode(node));
3361 }
3362
3363 static ir_node *gen_Proj_DivMod(ia32_transform_env_t *env, ir_node *node) {
3364         ir_graph *irg = env->irg;
3365         dbg_info *dbgi = get_irn_dbg_info(node);
3366         ir_node *block = transform_node(env, get_nodes_block(node));
3367         ir_mode *mode = get_irn_mode(node);
3368
3369         ir_node *pred = get_Proj_pred(node);
3370         ir_node *new_pred = transform_node(env, pred);
3371         long proj = get_Proj_proj(node);
3372
3373         assert(is_ia32_Div(new_pred) || is_ia32_IDiv(new_pred));
3374
3375         switch(get_irn_opcode(pred)) {
3376         case iro_Div:
3377                 switch(proj) {
3378                 case pn_Div_M:
3379                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3380                 case pn_Div_res:
3381                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_div_res);
3382                 default:
3383                         break;
3384                 }
3385                 break;
3386         case iro_Mod:
3387                 switch(proj) {
3388                 case pn_Mod_M:
3389                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3390                 case pn_Mod_res:
3391                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_mod_res);
3392                 default:
3393                         break;
3394                 }
3395                 break;
3396         case iro_DivMod:
3397                 switch(proj) {
3398                 case pn_DivMod_M:
3399                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3400                 case pn_DivMod_res_div:
3401                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_div_res);
3402                 case pn_DivMod_res_mod:
3403                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_mod_res);
3404                 default:
3405                         break;
3406                 }
3407                 break;
3408         default:
3409                 break;
3410         }
3411
3412         assert(0);
3413         return new_rd_Unknown(irg, mode);
3414 }
3415
3416 static ir_node *gen_Proj_CopyB(ia32_transform_env_t *env, ir_node *node)
3417 {
3418         ir_graph *irg = env->irg;
3419         dbg_info *dbgi = get_irn_dbg_info(node);
3420         ir_node *block = transform_node(env, get_nodes_block(node));
3421         ir_mode *mode = get_irn_mode(node);
3422
3423         ir_node *pred = get_Proj_pred(node);
3424         ir_node *new_pred = transform_node(env, pred);
3425         long proj = get_Proj_proj(node);
3426
3427         switch(proj) {
3428         case pn_CopyB_M_regular:
3429                 if(is_ia32_CopyB_i(new_pred)) {
3430                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3431                                            pn_ia32_CopyB_i_M);
3432                 } else if(is_ia32_CopyB(new_pred)) {
3433                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3434                                            pn_ia32_CopyB_M);
3435                 }
3436                 break;
3437         default:
3438                 break;
3439         }
3440
3441         assert(0);
3442         return new_rd_Unknown(irg, mode);
3443 }
3444
3445 static ir_node *gen_Proj_l_vfdiv(ia32_transform_env_t *env, ir_node *node)
3446 {
3447         ir_graph *irg = env->irg;
3448         dbg_info *dbgi = get_irn_dbg_info(node);
3449         ir_node *block = transform_node(env, get_nodes_block(node));
3450         ir_mode *mode = get_irn_mode(node);
3451
3452         ir_node *pred = get_Proj_pred(node);
3453         ir_node *new_pred = transform_node(env, pred);
3454         long proj = get_Proj_proj(node);
3455
3456         switch(proj) {
3457         case pn_ia32_l_vfdiv_M:
3458                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfdiv_M);
3459         case pn_ia32_l_vfdiv_res:
3460                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfdiv_res);
3461         default:
3462                 assert(0);
3463         }
3464
3465         return new_rd_Unknown(irg, mode);
3466 }
3467
3468 static ir_node *gen_Proj_Quot(ia32_transform_env_t *env, ir_node *node)
3469 {
3470         ir_graph *irg = env->irg;
3471         dbg_info *dbgi = get_irn_dbg_info(node);
3472         ir_node *block = transform_node(env, get_nodes_block(node));
3473         ir_mode *mode = get_irn_mode(node);
3474
3475         ir_node *pred = get_Proj_pred(node);
3476         ir_node *new_pred = transform_node(env, pred);
3477         long proj = get_Proj_proj(node);
3478
3479         switch(proj) {
3480         case pn_Quot_M:
3481                 if(is_ia32_xDiv(new_pred)) {
3482                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3483                                            pn_ia32_xDiv_M);
3484                 } else if(is_ia32_vfdiv(new_pred)) {
3485                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3486                                            pn_ia32_vfdiv_M);
3487                 }
3488                 break;
3489         case pn_Quot_res:
3490                 if(is_ia32_xDiv(new_pred)) {
3491                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_xmm,
3492                                            pn_ia32_xDiv_res);
3493                 } else if(is_ia32_vfdiv(new_pred)) {
3494                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp,
3495                                            pn_ia32_vfdiv_res);
3496                 }
3497                 break;
3498         default:
3499                 break;
3500         }
3501
3502         assert(0);
3503         return new_rd_Unknown(irg, mode);
3504 }
3505
3506 static ir_node *gen_Proj_tls(ia32_transform_env_t *env, ir_node *node) {
3507         ir_graph *irg = env->irg;
3508         //dbg_info *dbgi = get_irn_dbg_info(node);
3509         dbg_info *dbgi = NULL;
3510         ir_node *block = transform_node(env, get_nodes_block(node));
3511
3512         ir_node *res = new_rd_ia32_LdTls(dbgi, irg, block, mode_Iu);
3513
3514         return res;
3515 }
3516
3517 static ir_node *gen_Proj_be_Call(ia32_transform_env_t *env, ir_node *node) {
3518         ir_graph *irg = env->irg;
3519         dbg_info *dbgi = get_irn_dbg_info(node);
3520         long proj = get_Proj_proj(node);
3521         ir_mode *mode = get_irn_mode(node);
3522         ir_node *block = transform_node(env, get_nodes_block(node));
3523         ir_node *sse_load;
3524         ir_node *call = get_Proj_pred(node);
3525         ir_node *new_call = transform_node(env, call);
3526         const arch_register_class_t *cls;
3527
3528         /* The following is kinda tricky: If we're using SSE, then we have to
3529          * move the result value of the call in floating point registers to an
3530          * xmm register, we therefore construct a GetST0 -> xLoad sequence
3531          * after the call, we have to make sure to correctly make the
3532          * MemProj and the result Proj use these 2 nodes
3533          */
3534         if(proj == pn_be_Call_M_regular) {
3535                 // get new node for result, are we doing the sse load/store hack?
3536                 ir_node *call_res = be_get_Proj_for_pn(call, pn_be_Call_first_res);
3537                 ir_node *call_res_new;
3538                 ir_node *call_res_pred = NULL;
3539
3540                 if(call_res != NULL) {
3541                         call_res_new = transform_node(env, call_res);
3542                         call_res_pred = get_Proj_pred(call_res_new);
3543                 }
3544
3545                 if(call_res_pred == NULL || be_is_Call(call_res_pred)) {
3546                         return new_rd_Proj(dbgi, irg, block, new_call, mode_M, pn_be_Call_M_regular);
3547                 } else {
3548                         assert(is_ia32_xLoad(call_res_pred));
3549                         return new_rd_Proj(dbgi, irg, block, call_res_pred, mode_M, pn_ia32_xLoad_M);
3550                 }
3551         }
3552         if(proj == pn_be_Call_first_res && mode_is_float(mode)
3553                         && USE_SSE2(env->cg)) {
3554                 ir_node *fstp;
3555                 ir_node *frame = get_irg_frame(irg);
3556                 ir_node *noreg = ia32_new_NoReg_gp(env->cg);
3557                 ir_node *p;
3558                 ir_node *call_mem = be_get_Proj_for_pn(call, pn_be_Call_M_regular);
3559                 ir_node *keepin[1];
3560                 const arch_register_class_t *cls;
3561
3562                 /* in case there is no memory output: create one to serialize the copy FPU -> SSE */
3563                 call_mem = new_rd_Proj(dbgi, irg, block, new_call, mode_M, pn_be_Call_M_regular);
3564
3565                 /* store st(0) onto stack */
3566                 fstp = new_rd_ia32_GetST0(dbgi, irg, block, frame, noreg, call_mem);
3567
3568                 set_ia32_ls_mode(fstp, mode);
3569                 set_ia32_op_type(fstp, ia32_AddrModeD);
3570                 set_ia32_use_frame(fstp);
3571                 set_ia32_am_flavour(fstp, ia32_am_B);
3572                 set_ia32_am_support(fstp, ia32_am_Dest);
3573
3574                 /* load into SSE register */
3575                 sse_load = new_rd_ia32_xLoad(dbgi, irg, block, frame, noreg, fstp);
3576                 set_ia32_ls_mode(sse_load, mode);
3577                 set_ia32_op_type(sse_load, ia32_AddrModeS);
3578                 set_ia32_use_frame(sse_load);
3579                 set_ia32_am_flavour(sse_load, ia32_am_B);
3580                 set_ia32_am_support(sse_load, ia32_am_Source);
3581
3582                 sse_load = new_rd_Proj(dbgi, irg, block, sse_load, mode_xmm, pn_ia32_xLoad_res);
3583
3584                 /* now: create new Keep whith all former ins and one additional in - the result Proj */
3585
3586                 /* get a Proj representing a caller save register */
3587                 p = be_get_Proj_for_pn(call, pn_be_Call_first_res + 1);
3588                 assert(is_Proj(p) && "Proj expected.");
3589
3590                 /* user of the the proj is the Keep */
3591                 p = get_edge_src_irn(get_irn_out_edge_first(p));
3592                 assert(be_is_Keep(p) && "Keep expected.");
3593
3594                 /* keep the result */
3595                 cls = arch_get_irn_reg_class(env->cg->arch_env, sse_load, -1);
3596                 keepin[0] = sse_load;
3597                 be_new_Keep(cls, irg, block, 1, keepin);
3598
3599                 return sse_load;
3600         }
3601
3602         /* transform call modes */
3603         if(mode != mode_M) {
3604                 cls = arch_get_irn_reg_class(env->cg->arch_env, node, -1);
3605                 mode = cls->mode;
3606         }
3607
3608         return new_rd_Proj(dbgi, irg, block, new_call, mode, proj);
3609 }
3610
3611 static ir_node *gen_Proj(ia32_transform_env_t *env, ir_node *node) {
3612         ir_graph *irg = env->irg;
3613         dbg_info *dbgi = get_irn_dbg_info(node);
3614         ir_node *pred = get_Proj_pred(node);
3615         long proj = get_Proj_proj(node);
3616
3617         if(is_Store(pred) || be_is_FrameStore(pred)) {
3618                 if(proj == pn_Store_M) {
3619                         return transform_node(env, pred);
3620                 } else {
3621                         assert(0);
3622                         return new_r_Bad(irg);
3623                 }
3624         } else if(is_Load(pred) || be_is_FrameLoad(pred)) {
3625                 return gen_Proj_Load(env, node);
3626         } else if(is_Div(pred) || is_Mod(pred) || is_DivMod(pred)) {
3627                 return gen_Proj_DivMod(env, node);
3628         } else if(is_CopyB(pred)) {
3629                 return gen_Proj_CopyB(env, node);
3630         } else if(is_Quot(pred)) {
3631                 return gen_Proj_Quot(env, node);
3632         } else if(is_ia32_l_vfdiv(pred)) {
3633                 return gen_Proj_l_vfdiv(env, node);
3634         } else if(be_is_SubSP(pred)) {
3635                 return gen_Proj_be_SubSP(env, node);
3636         } else if(be_is_AddSP(pred)) {
3637                 return gen_Proj_be_AddSP(env, node);
3638         } else if(be_is_Call(pred)) {
3639                 return gen_Proj_be_Call(env, node);
3640         } else if(get_irn_op(pred) == op_Start) {
3641                 if(proj == pn_Start_X_initial_exec) {
3642                         ir_node *block = get_nodes_block(pred);
3643                         ir_node *jump;
3644
3645                         block = transform_node(env, block);
3646                         // we exchange the ProjX with a jump
3647                         jump = new_rd_Jmp(dbgi, irg, block);
3648                         ir_fprintf(stderr, "created jump: %+F\n", jump);
3649                         return jump;
3650                 }
3651                 if(node == env->old_anchors[anchor_tls]) {
3652                         return gen_Proj_tls(env, node);
3653                 }
3654         }
3655
3656         return duplicate_node(env, node);
3657 }
3658
3659 /**
3660  * Enters all transform functions into the generic pointer
3661  */
3662 static void register_transformers(void) {
3663         ir_op *op_Max, *op_Min, *op_Mulh;
3664
3665         /* first clear the generic function pointer for all ops */
3666         clear_irp_opcodes_generic_func();
3667
3668 #define GEN(a)   { transform_func *func = gen_##a; op_##a->ops.generic = (op_func) func; }
3669 #define BAD(a)   op_##a->ops.generic = (op_func)bad_transform
3670
3671         GEN(Add);
3672         GEN(Sub);
3673         GEN(Mul);
3674         GEN(And);
3675         GEN(Or);
3676         GEN(Eor);
3677
3678         GEN(Shl);
3679         GEN(Shr);
3680         GEN(Shrs);
3681         GEN(Rot);
3682
3683         GEN(Quot);
3684
3685         GEN(Div);
3686         GEN(Mod);
3687         GEN(DivMod);
3688
3689         GEN(Minus);
3690         GEN(Conv);
3691         GEN(Abs);
3692         GEN(Not);
3693
3694         GEN(Load);
3695         GEN(Store);
3696         GEN(Cond);
3697
3698         GEN(CopyB);
3699         //GEN(Mux);
3700         BAD(Mux);
3701         GEN(Psi);
3702         GEN(Proj);
3703         GEN(Phi);
3704
3705         GEN(Block);
3706         GEN(End);
3707
3708         /* transform ops from intrinsic lowering */
3709         GEN(ia32_l_Add);
3710         GEN(ia32_l_Adc);
3711         GEN(ia32_l_Sub);
3712         GEN(ia32_l_Sbb);
3713         GEN(ia32_l_Neg);
3714         GEN(ia32_l_Mul);
3715         GEN(ia32_l_Xor);
3716         GEN(ia32_l_IMul);
3717         GEN(ia32_l_Shl);
3718         GEN(ia32_l_Shr);
3719         GEN(ia32_l_Sar);
3720         GEN(ia32_l_ShlD);
3721         GEN(ia32_l_ShrD);
3722         GEN(ia32_l_vfdiv);
3723         GEN(ia32_l_vfprem);
3724         GEN(ia32_l_vfmul);
3725         GEN(ia32_l_vfsub);
3726         GEN(ia32_l_vfild);
3727         GEN(ia32_l_Load);
3728         /* GEN(ia32_l_vfist); TODO */
3729         GEN(ia32_l_Store);
3730         GEN(ia32_l_X87toSSE);
3731         GEN(ia32_l_SSEtoX87);
3732
3733         GEN(Const);
3734         GEN(SymConst);
3735
3736         /* we should never see these nodes */
3737         BAD(Raise);
3738         BAD(Sel);
3739         BAD(InstOf);
3740         BAD(Cast);
3741         BAD(Free);
3742         BAD(Tuple);
3743         BAD(Id);
3744         //BAD(Bad);
3745         BAD(Confirm);
3746         BAD(Filter);
3747         BAD(CallBegin);
3748         BAD(EndReg);
3749         BAD(EndExcept);
3750
3751         /* handle generic backend nodes */
3752         GEN(be_FrameAddr);
3753         //GEN(be_Call);
3754         GEN(be_Return);
3755         GEN(be_FrameLoad);
3756         GEN(be_FrameStore);
3757         GEN(be_StackParam);
3758         GEN(be_AddSP);
3759         GEN(be_SubSP);
3760
3761         /* set the register for all Unknown nodes */
3762         GEN(Unknown);
3763
3764         op_Max = get_op_Max();
3765         if (op_Max)
3766                 GEN(Max);
3767         op_Min = get_op_Min();
3768         if (op_Min)
3769                 GEN(Min);
3770         op_Mulh = get_op_Mulh();
3771         if (op_Mulh)
3772                 GEN(Mulh);
3773
3774 #undef GEN
3775 #undef BAD
3776 }
3777
3778 static void duplicate_deps(ia32_transform_env_t *env, ir_node *old_node,
3779                            ir_node *new_node)
3780 {
3781         int i;
3782         int deps = get_irn_deps(old_node);
3783
3784         for(i = 0; i < deps; ++i) {
3785                 ir_node *dep = get_irn_dep(old_node, i);
3786                 ir_node *new_dep = transform_node(env, dep);
3787
3788                 add_irn_dep(new_node, new_dep);
3789         }
3790 }
3791
3792 static ir_node *duplicate_node(ia32_transform_env_t *env, ir_node *node)
3793 {
3794         ir_graph *irg = env->irg;
3795         dbg_info *dbgi = get_irn_dbg_info(node);
3796         ir_mode *mode = get_irn_mode(node);
3797         ir_op     *op = get_irn_op(node);
3798         ir_node *block;
3799         ir_node *new_node;
3800         int i, arity;
3801
3802         block = transform_node(env, get_nodes_block(node));
3803
3804         arity = get_irn_arity(node);
3805         if(op->opar == oparity_dynamic) {
3806                 new_node = new_ir_node(dbgi, irg, block, op, mode, -1, NULL);
3807                 for(i = 0; i < arity; ++i) {
3808                         ir_node *in = get_irn_n(node, i);
3809                         in = transform_node(env, in);
3810                         add_irn_n(new_node, in);
3811                 }
3812         } else {
3813                 ir_node **ins = alloca(arity * sizeof(ins[0]));
3814                 for(i = 0; i < arity; ++i) {
3815                         ir_node *in = get_irn_n(node, i);
3816                         ins[i] = transform_node(env, in);
3817                 }
3818
3819                 new_node = new_ir_node(dbgi, irg, block, op, mode, arity, ins);
3820         }
3821
3822         copy_node_attr(node, new_node);
3823         duplicate_deps(env, node, new_node);
3824
3825         return new_node;
3826 }
3827
3828 static ir_node *transform_node(ia32_transform_env_t *env, ir_node *node)
3829 {
3830         ir_node *new_node;
3831         ir_op   *op = get_irn_op(node);
3832
3833         if(irn_visited(node)) {
3834                 assert(get_new_node(node) != NULL);
3835                 return get_new_node(node);
3836         }
3837
3838         mark_irn_visited(node);
3839         DEBUG_ONLY(set_new_node(node, NULL));
3840
3841         if (op->ops.generic) {
3842                 transform_func *transform = (transform_func *)op->ops.generic;
3843
3844                 new_node = (*transform)(env, node);
3845                 assert(new_node != NULL);
3846         } else {
3847                 new_node = duplicate_node(env, node);
3848         }
3849         //ir_fprintf(stderr, "%+F -> %+F\n", node, new_node);
3850
3851         set_new_node(node, new_node);
3852         mark_irn_visited(new_node);
3853         hook_dead_node_elim_subst(current_ir_graph, node, new_node);
3854         return new_node;
3855 }
3856
3857 static void fix_loops(ia32_transform_env_t *env, ir_node *node)
3858 {
3859         int i, arity;
3860
3861         if(irn_visited(node))
3862                 return;
3863         mark_irn_visited(node);
3864
3865         assert(node_is_in_irgs_storage(env->irg, node));
3866
3867         if(!is_Block(node)) {
3868                 ir_node *block = get_nodes_block(node);
3869                 ir_node *new_block = (ir_node*) get_irn_link(block);
3870
3871                 if(new_block != NULL) {
3872                         set_nodes_block(node, new_block);
3873                         block = new_block;
3874                 }
3875
3876                 fix_loops(env, block);
3877         }
3878
3879         arity = get_irn_arity(node);
3880         for(i = 0; i < arity; ++i) {
3881                 ir_node *in = get_irn_n(node, i);
3882                 ir_node *new = (ir_node*) get_irn_link(in);
3883
3884                 if(new != NULL && new != in) {
3885                         set_irn_n(node, i, new);
3886                         in = new;
3887                 }
3888
3889                 fix_loops(env, in);
3890         }
3891
3892         arity = get_irn_deps(node);
3893         for(i = 0; i < arity; ++i) {
3894                 ir_node *in = get_irn_dep(node, i);
3895                 ir_node *new = (ir_node*) get_irn_link(in);
3896
3897                 if(new != NULL && new != in) {
3898                         set_irn_dep(node, i, new);
3899                         in = new;
3900                 }
3901
3902                 fix_loops(env, in);
3903         }
3904 }
3905
3906 static void pre_transform_node(ir_node **place, ia32_transform_env_t *env)
3907 {
3908         if(*place == NULL)
3909                 return;
3910
3911         *place = transform_node(env, *place);
3912 }
3913
3914 static void transform_nodes(ia32_code_gen_t *cg)
3915 {
3916         int i;
3917         ir_graph *irg = cg->irg;
3918         ir_node *old_end;
3919         ia32_transform_env_t env;
3920
3921         hook_dead_node_elim(irg, 1);
3922
3923         inc_irg_visited(irg);
3924
3925         env.irg = irg;
3926         env.cg = cg;
3927         env.visited = get_irg_visited(irg);
3928         env.worklist = new_pdeq();
3929         env.old_anchors = alloca(anchor_max * sizeof(env.old_anchors[0]));
3930
3931         old_end = get_irg_end(irg);
3932
3933         /* put all anchor nodes in the worklist */
3934         for(i = 0; i < anchor_max; ++i) {
3935                 ir_node *anchor = irg->anchors[i];
3936                 if(anchor == NULL)
3937                         continue;
3938                 pdeq_putr(env.worklist, anchor);
3939
3940                 // remember anchor
3941                 env.old_anchors[i] = anchor;
3942                 // and set it to NULL to make sure we don't accidently use it
3943                 irg->anchors[i] = NULL;
3944         }
3945
3946         // pre transform some anchors (so they are available in the other transform
3947         // functions)
3948         set_irg_bad(irg, transform_node(&env, env.old_anchors[anchor_bad]));
3949         set_irg_no_mem(irg, transform_node(&env, env.old_anchors[anchor_no_mem]));
3950         set_irg_start_block(irg, transform_node(&env, env.old_anchors[anchor_start_block]));
3951         set_irg_start(irg, transform_node(&env, env.old_anchors[anchor_start]));
3952         set_irg_frame(irg, transform_node(&env, env.old_anchors[anchor_frame]));
3953
3954         pre_transform_node(&cg->unknown_gp, &env);
3955         pre_transform_node(&cg->unknown_vfp, &env);
3956         pre_transform_node(&cg->unknown_xmm, &env);
3957         pre_transform_node(&cg->noreg_gp, &env);
3958         pre_transform_node(&cg->noreg_vfp, &env);
3959         pre_transform_node(&cg->noreg_xmm, &env);
3960
3961         /* process worklist (this should transform all nodes in the graph) */
3962         while(!pdeq_empty(env.worklist)) {
3963                 ir_node *node = pdeq_getl(env.worklist);
3964                 transform_node(&env, node);
3965         }
3966
3967         /* fix loops and set new anchors*/
3968         inc_irg_visited(irg);
3969         for(i = 0; i < anchor_max; ++i) {
3970                 ir_node *anchor = env.old_anchors[i];
3971                 if(anchor == NULL)
3972                         continue;
3973
3974                 anchor = get_irn_link(anchor);
3975                 fix_loops(&env, anchor);
3976                 assert(irg->anchors[i] == NULL || irg->anchors[i] == anchor);
3977                 irg->anchors[i] = anchor;
3978         }
3979
3980         del_pdeq(env.worklist);
3981         free_End(old_end);
3982         hook_dead_node_elim(irg, 0);
3983 }
3984
3985 void ia32_transform_graph(ia32_code_gen_t *cg)
3986 {
3987         ir_graph *irg = cg->irg;
3988         be_irg_t *birg = cg->birg;
3989         ir_graph *old_current_ir_graph = current_ir_graph;
3990         int old_interprocedural_view = get_interprocedural_view();
3991         struct obstack *old_obst = NULL;
3992         struct obstack *new_obst = NULL;
3993
3994         current_ir_graph = irg;
3995         set_interprocedural_view(0);
3996         register_transformers();
3997
3998         /* most analysis info is wrong after transformation */
3999         free_callee_info(irg);
4000         free_irg_outs(irg);
4001         irg->outs_state = outs_none;
4002         free_trouts();
4003         free_loop_information(irg);
4004         set_irg_doms_inconsistent(irg);
4005         be_invalidate_liveness(birg);
4006         be_invalidate_dom_front(birg);
4007
4008         /* create a new obstack */
4009         old_obst = irg->obst;
4010         new_obst = xmalloc(sizeof(*new_obst));
4011         obstack_init(new_obst);
4012         irg->obst = new_obst;
4013         irg->last_node_idx = 0;
4014
4015         /* create new value table for CSE */
4016         del_identities(irg->value_table);
4017         irg->value_table = new_identities();
4018
4019         /* do the main transformation */
4020         transform_nodes(cg);
4021
4022         /* we don't want the globals anchor anymore */
4023         set_irg_globals(irg, new_r_Bad(irg));
4024
4025         /* free the old obstack */
4026         obstack_free(old_obst, 0);
4027         xfree(old_obst);
4028
4029         /* restore state */
4030         current_ir_graph = old_current_ir_graph;
4031         set_interprocedural_view(old_interprocedural_view);
4032
4033         /* recalculate edges */
4034         edges_deactivate(irg);
4035         edges_activate(irg);
4036 }
4037
4038 /**
4039  * Transforms a psi condition.
4040  */
4041 static void transform_psi_cond(ir_node *cond, ir_mode *mode, ia32_code_gen_t *cg) {
4042         int i;
4043
4044         /* if the mode is target mode, we have already seen this part of the tree */
4045         if (get_irn_mode(cond) == mode)
4046                 return;
4047
4048         assert(get_irn_mode(cond) == mode_b && "logical operator for condition must be mode_b");
4049
4050         set_irn_mode(cond, mode);
4051
4052         for (i = get_irn_arity(cond) - 1; i >= 0; i--) {
4053                 ir_node *in = get_irn_n(cond, i);
4054
4055                 /* if in is a compare: transform into Set/xCmp */
4056                 if (is_Proj(in)) {
4057                         ir_node  *new_op = NULL;
4058                         ir_node  *cmp    = get_Proj_pred(in);
4059                         ir_node  *cmp_a  = get_Cmp_left(cmp);
4060                         ir_node  *cmp_b  = get_Cmp_right(cmp);
4061                         dbg_info *dbgi    = get_irn_dbg_info(cmp);
4062                         ir_graph *irg    = get_irn_irg(cmp);
4063                         ir_node  *block  = get_nodes_block(cmp);
4064                         ir_node  *noreg  = ia32_new_NoReg_gp(cg);
4065                         ir_node  *nomem  = new_rd_NoMem(irg);
4066                         int      pnc     = get_Proj_proj(in);
4067
4068                         /* this is a compare */
4069                         if (mode_is_float(mode)) {
4070                                 /* Psi is float, we need a floating point compare */
4071
4072                                 if (USE_SSE2(cg)) {
4073                                         ir_mode *m = get_irn_mode(cmp_a);
4074                                         /* SSE FPU */
4075                                         if (! mode_is_float(m)) {
4076                                                 cmp_a = gen_sse_conv_int2float(cg, dbgi, irg, block, cmp_a, cmp_a, mode);
4077                                                 cmp_b = gen_sse_conv_int2float(cg, dbgi, irg, block, cmp_b, cmp_b, mode);
4078                                         } else if (m == mode_F) {
4079                                                 /* we convert cmp values always to double, to get correct bitmask with cmpsd */
4080                                                 cmp_a = gen_sse_conv_f2d(cg, dbgi, irg, block, cmp_a, cmp_a);
4081                                                 cmp_b = gen_sse_conv_f2d(cg, dbgi, irg, block, cmp_b, cmp_b);
4082                                         }
4083
4084                                         new_op = new_rd_ia32_xCmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
4085                                         set_ia32_pncode(new_op, pnc);
4086                                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, cmp));
4087                                 } else {
4088                                         /* x87 FPU */
4089                                         assert(0);
4090                                 }
4091                         } else {
4092                                 /* integer Psi */
4093                                 construct_binop_func *set_func  = NULL;
4094
4095                                 if (mode_is_float(get_irn_mode(cmp_a))) {
4096                                         /* 1st case: compare operands are floats */
4097                                         FP_USED(cg);
4098
4099                                         if (USE_SSE2(cg)) {
4100                                                 /* SSE FPU */
4101                                                 set_func  = new_rd_ia32_xCmpSet;
4102                                         } else {
4103                                                 /* x87 FPU */
4104                                                 set_func  = new_rd_ia32_vfCmpSet;
4105                                         }
4106
4107                                         pnc &= 7; /* fp compare -> int compare */
4108                                 } else {
4109                                         /* 2nd case: compare operand are integer too */
4110                                         set_func  = new_rd_ia32_CmpSet;
4111                                 }
4112
4113                                 new_op = set_func(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
4114                                 if(!mode_is_signed(mode))
4115                                         pnc |= ia32_pn_Cmp_Unsigned;
4116
4117                                 set_ia32_pncode(new_op, pnc);
4118                                 set_ia32_am_support(new_op, ia32_am_Source);
4119                         }
4120
4121                         /* the the new compare as in */
4122                         set_irn_n(cond, i, new_op);
4123                 } else {
4124                         /* another complex condition */
4125                         transform_psi_cond(in, mode, cg);
4126                 }
4127         }
4128 }
4129
4130 /**
4131  * The Psi selector can be a tree of compares combined with "And"s and "Or"s.
4132  * We create a Set node, respectively a xCmp in case the Psi is a float, for
4133  * each compare, which causes the compare result to be stored in a register. The
4134  * "And"s and "Or"s are transformed later, we just have to set their mode right.
4135  */
4136 void ia32_transform_psi_cond_tree(ir_node *node, void *env) {
4137         ia32_code_gen_t *cg = env;
4138         ir_node         *psi_sel, *new_cmp, *block;
4139         ir_graph        *irg;
4140         ir_mode         *mode;
4141
4142         /* check for Psi */
4143         if (get_irn_opcode(node) != iro_Psi)
4144                 return;
4145
4146         psi_sel = get_Psi_cond(node, 0);
4147
4148         /* if psi_cond is a cmp: do nothing, this case is covered by gen_Psi */
4149         if (is_Proj(psi_sel)) {
4150                 assert(is_Cmp(get_Proj_pred(psi_sel)));
4151                 return;
4152         }
4153
4154         //mode = get_irn_mode(node);
4155         // TODO probably wrong...
4156         mode = mode_Iu;
4157
4158         transform_psi_cond(psi_sel, mode, cg);
4159
4160         irg   = get_irn_irg(node);
4161         block = get_nodes_block(node);
4162
4163         /* we need to compare the evaluated condition tree with 0 */
4164         mode = get_irn_mode(node);
4165         if (mode_is_float(mode)) {
4166                 /* BEWARE: new_r_Const_long works for floating point as well */
4167                 ir_node *zero = new_r_Const_long(irg, block, mode, 0);
4168
4169                 psi_sel = gen_sse_conv_int2float(cg, NULL, irg, block, psi_sel, NULL, mode);
4170                 new_cmp = new_r_Cmp(irg, block, psi_sel, zero);
4171                 new_cmp = new_r_Proj(irg, block, new_cmp, mode_b, pn_Cmp_Ne);
4172         } else {
4173                 ir_node *zero = new_r_Const_long(irg, block, mode_Iu, 0);
4174                 new_cmp = new_r_Cmp(irg, block, psi_sel, zero);
4175                 new_cmp = new_r_Proj(irg, block, new_cmp, mode_b, pn_Cmp_Gt | pn_Cmp_Lt);
4176         }
4177
4178         set_Psi_cond(node, 0, new_cmp);
4179 }
4180
4181 void ia32_init_transform(void)
4182 {
4183         FIRM_DBG_REGISTER(dbg, "firm.be.ia32.transform");
4184 }