moved iterator allocation outside loop
[libfirm] / ir / be / ia32 / ia32_transform.c
1 /**
2  * This file implements the IR transformation from firm into ia32-Firm.
3  * @author Christian Wuerdig
4  * $Id$
5  */
6 #ifdef HAVE_CONFIG_H
7 #include "config.h"
8 #endif
9
10 #include <limits.h>
11
12 #include "irargs_t.h"
13 #include "irnode_t.h"
14 #include "irgraph_t.h"
15 #include "irmode_t.h"
16 #include "iropt_t.h"
17 #include "irop_t.h"
18 #include "irprog_t.h"
19 #include "iredges_t.h"
20 #include "irgmod.h"
21 #include "irvrfy.h"
22 #include "ircons.h"
23 #include "irgwalk.h"
24 #include "dbginfo.h"
25 #include "irprintf.h"
26 #include "debug.h"
27 #include "irdom.h"
28 #include "type.h"
29 #include "entity.h"
30 #include "archop.h"     /* we need this for Min and Max nodes */
31 #include "error.h"
32 #include "cgana.h"
33 #include "irouts.h"
34 #include "trouts.h"
35 #include "irhooks.h"
36
37 #include "../benode_t.h"
38 #include "../besched.h"
39 #include "../beabi.h"
40 #include "../beutil.h"
41 #include "../beirg_t.h"
42
43 #include "bearch_ia32_t.h"
44 #include "ia32_nodes_attr.h"
45 #include "ia32_transform.h"
46 #include "ia32_new_nodes.h"
47 #include "ia32_map_regs.h"
48 #include "ia32_dbg_stat.h"
49 #include "ia32_optimize.h"
50 #include "ia32_util.h"
51
52 #include "gen_ia32_regalloc_if.h"
53
54 #define SFP_SIGN "0x80000000"
55 #define DFP_SIGN "0x8000000000000000"
56 #define SFP_ABS  "0x7FFFFFFF"
57 #define DFP_ABS  "0x7FFFFFFFFFFFFFFF"
58
59 #define TP_SFP_SIGN "ia32_sfp_sign"
60 #define TP_DFP_SIGN "ia32_dfp_sign"
61 #define TP_SFP_ABS  "ia32_sfp_abs"
62 #define TP_DFP_ABS  "ia32_dfp_abs"
63
64 #define ENT_SFP_SIGN "IA32_SFP_SIGN"
65 #define ENT_DFP_SIGN "IA32_DFP_SIGN"
66 #define ENT_SFP_ABS  "IA32_SFP_ABS"
67 #define ENT_DFP_ABS  "IA32_DFP_ABS"
68
69 #define mode_vfp        (ia32_reg_classes[CLASS_ia32_vfp].mode)
70 #define mode_xmm    (ia32_reg_classes[CLASS_ia32_xmm].mode)
71
72 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
73
74 typedef struct ia32_transform_env_t {
75         ir_graph          *irg;        /**< The irg, the node should be created in */
76         ia32_code_gen_t   *cg;         /**< The code generator */
77         int               visited;     /**< visited count that indicates whether a
78                                             node is already transformed */
79         pdeq              *worklist;   /**< worklist of nodes that still need to be
80                                                                         transformed */
81         ir_node          **old_anchors;/**< the list of anchors nodes in the old irg*/
82 } ia32_transform_env_t;
83
84 extern ir_op *get_op_Mulh(void);
85
86 typedef ir_node *construct_binop_func(dbg_info *db, ir_graph *irg,
87         ir_node *block, ir_node *base, ir_node *index, ir_node *op1,
88         ir_node *op2, ir_node *mem);
89
90 typedef ir_node *construct_unop_func(dbg_info *db, ir_graph *irg,
91         ir_node *block, ir_node *base, ir_node *index, ir_node *op,
92         ir_node *mem);
93
94 typedef ir_node *(transform_func)(ia32_transform_env_t *env, ir_node *node);
95
96 /****************************************************************************************************
97  *                  _        _                        __                           _   _
98  *                 | |      | |                      / _|                         | | (_)
99  *  _ __   ___   __| | ___  | |_ _ __ __ _ _ __  ___| |_ ___  _ __ _ __ ___   __ _| |_ _  ___  _ __
100  * | '_ \ / _ \ / _` |/ _ \ | __| '__/ _` | '_ \/ __|  _/ _ \| '__| '_ ` _ \ / _` | __| |/ _ \| '_ \
101  * | | | | (_) | (_| |  __/ | |_| | | (_| | | | \__ \ || (_) | |  | | | | | | (_| | |_| | (_) | | | |
102  * |_| |_|\___/ \__,_|\___|  \__|_|  \__,_|_| |_|___/_| \___/|_|  |_| |_| |_|\__,_|\__|_|\___/|_| |_|
103  *
104  ****************************************************************************************************/
105
106 static ir_node *duplicate_node(ia32_transform_env_t *env, ir_node *node);
107 static ir_node *transform_node(ia32_transform_env_t *env, ir_node *node);
108 static void duplicate_deps(ia32_transform_env_t *env, ir_node *old_node,
109                            ir_node *new_node);
110
111 static INLINE int mode_needs_gp_reg(ir_mode *mode)
112 {
113         if(mode == mode_fpcw)
114                 return 0;
115
116         return mode_is_int(mode) || mode_is_character(mode) || mode_is_reference(mode);
117 }
118
119 static INLINE void set_new_node(ir_node *old_node, ir_node *new_node)
120 {
121         set_irn_link(old_node, new_node);
122 }
123
124 static INLINE ir_node *get_new_node(ir_node *old_node)
125 {
126         assert(irn_visited(old_node));
127         return (ir_node*) get_irn_link(old_node);
128 }
129
130 /**
131  * Returns 1 if irn is a Const representing 0, 0 otherwise
132  */
133 static INLINE int is_ia32_Const_0(ir_node *irn) {
134         return is_ia32_irn(irn) && is_ia32_Const(irn) && get_ia32_immop_type(irn) == ia32_ImmConst
135                && tarval_is_null(get_ia32_Immop_tarval(irn));
136 }
137
138 /**
139  * Returns 1 if irn is a Const representing 1, 0 otherwise
140  */
141 static INLINE int is_ia32_Const_1(ir_node *irn) {
142         return is_ia32_irn(irn) && is_ia32_Const(irn) && get_ia32_immop_type(irn) == ia32_ImmConst
143                && tarval_is_one(get_ia32_Immop_tarval(irn));
144 }
145
146 /**
147  * Collects all Projs of a node into the node array. Index is the projnum.
148  * BEWARE: The caller has to assure the appropriate array size!
149  */
150 static void ia32_collect_Projs(ir_node *irn, ir_node **projs, int size) {
151         const ir_edge_t *edge;
152         assert(get_irn_mode(irn) == mode_T && "need mode_T");
153
154         memset(projs, 0, size * sizeof(projs[0]));
155
156         foreach_out_edge(irn, edge) {
157                 ir_node *proj = get_edge_src_irn(edge);
158                 int proj_proj = get_Proj_proj(proj);
159                 assert(proj_proj < size);
160                 projs[proj_proj] = proj;
161         }
162 }
163
164 /**
165  * Renumbers the proj having pn_old in the array tp pn_new
166  * and removes the proj from the array.
167  */
168 static INLINE void ia32_renumber_Proj(ir_node **projs, long pn_old, long pn_new) {
169         fprintf(stderr, "Warning: renumber_Proj used!\n");
170         if (projs[pn_old]) {
171                 set_Proj_proj(projs[pn_old], pn_new);
172                 projs[pn_old] = NULL;
173         }
174 }
175
176 /**
177  * creates a unique ident by adding a number to a tag
178  *
179  * @param tag   the tag string, must contain a %d if a number
180  *              should be added
181  */
182 static ident *unique_id(const char *tag)
183 {
184         static unsigned id = 0;
185         char str[256];
186
187         snprintf(str, sizeof(str), tag, ++id);
188         return new_id_from_str(str);
189 }
190
191 /**
192  * Get a primitive type for a mode.
193  */
194 static ir_type *get_prim_type(pmap *types, ir_mode *mode)
195 {
196         pmap_entry *e = pmap_find(types, mode);
197         ir_type *res;
198
199         if (! e) {
200                 char buf[64];
201                 snprintf(buf, sizeof(buf), "prim_type_%s", get_mode_name(mode));
202                 res = new_type_primitive(new_id_from_str(buf), mode);
203                 pmap_insert(types, mode, res);
204         }
205         else
206                 res = e->value;
207         return res;
208 }
209
210 /**
211  * Get an entity that is initialized with a tarval
212  */
213 static ir_entity *get_entity_for_tv(ia32_code_gen_t *cg, ir_node *cnst)
214 {
215         tarval *tv    = get_Const_tarval(cnst);
216         pmap_entry *e = pmap_find(cg->isa->tv_ent, tv);
217         ir_entity *res;
218         ir_graph *rem;
219
220         if (! e) {
221                 ir_mode *mode = get_irn_mode(cnst);
222                 ir_type *tp = get_Const_type(cnst);
223                 if (tp == firm_unknown_type)
224                         tp = get_prim_type(cg->isa->types, mode);
225
226                 res = new_entity(get_glob_type(), unique_id(".LC%u"), tp);
227
228                 set_entity_ld_ident(res, get_entity_ident(res));
229                 set_entity_visibility(res, visibility_local);
230                 set_entity_variability(res, variability_constant);
231                 set_entity_allocation(res, allocation_static);
232
233                  /* we create a new entity here: It's initialization must resist on the
234                     const code irg */
235                 rem = current_ir_graph;
236                 current_ir_graph = get_const_code_irg();
237                 set_atomic_ent_value(res, new_Const_type(tv, tp));
238                 current_ir_graph = rem;
239
240                 pmap_insert(cg->isa->tv_ent, tv, res);
241         } else {
242                 res = e->value;
243         }
244
245         return res;
246 }
247
248 /**
249  * Transforms a Const.
250  */
251 static ir_node *gen_Const(ia32_transform_env_t *env, ir_node *node) {
252         ir_graph        *irg   = env->irg;
253         dbg_info        *dbgi   = get_irn_dbg_info(node);
254         ir_mode         *mode  = get_irn_mode(node);
255         ir_node         *block = transform_node(env, get_nodes_block(node));
256
257         if (mode_is_float(mode)) {
258                 ir_node *res = NULL;
259                 ir_entity *floatent;
260                 ir_node *noreg = ia32_new_NoReg_gp(env->cg);
261                 ir_node *nomem = new_NoMem();
262                 ir_node *load;
263
264                 FP_USED(env->cg);
265                 if (! USE_SSE2(env->cg)) {
266                         cnst_classify_t clss = classify_Const(node);
267
268                         if (clss == CNST_NULL) {
269                                 load = new_rd_ia32_vfldz(dbgi, irg, block);
270                                 res  = load;
271                         } else if (clss == CNST_ONE) {
272                                 load = new_rd_ia32_vfld1(dbgi, irg, block);
273                                 res  = load;
274                         } else {
275                                 floatent = get_entity_for_tv(env->cg, node);
276
277                                 load     = new_rd_ia32_vfld(dbgi, irg, block, noreg, noreg, nomem);
278                                 set_ia32_am_support(load, ia32_am_Source);
279                                 set_ia32_op_type(load, ia32_AddrModeS);
280                                 set_ia32_am_flavour(load, ia32_am_N);
281                                 set_ia32_am_sc(load, floatent);
282                                 res      = new_r_Proj(irg, block, load, mode_vfp, pn_ia32_vfld_res);
283                         }
284                         set_ia32_ls_mode(load, mode);
285                 } else {
286                         floatent = get_entity_for_tv(env->cg, node);
287
288                         load     = new_rd_ia32_xLoad(dbgi, irg, block, noreg, noreg, nomem);
289                         set_ia32_am_support(load, ia32_am_Source);
290                         set_ia32_op_type(load, ia32_AddrModeS);
291                         set_ia32_am_flavour(load, ia32_am_N);
292                         set_ia32_am_sc(load, floatent);
293                         set_ia32_ls_mode(load, mode);
294
295                         res = new_r_Proj(irg, block, load, mode_xmm, pn_ia32_xLoad_res);
296                 }
297
298                 SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env->cg, node));
299
300                 /* Const Nodes before the initial IncSP are a bad idea, because
301                  * they could be spilled and we have no SP ready at that point yet
302                  */
303                 if (get_irg_start_block(irg) == block) {
304                         add_irn_dep(load, get_irg_frame(irg));
305                 }
306
307                 SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env->cg, node));
308                 return res;
309         } else {
310                 ir_node *cnst = new_rd_ia32_Const(dbgi, irg, block);
311
312                 /* see above */
313                 if (get_irg_start_block(irg) == block) {
314                         add_irn_dep(cnst, get_irg_frame(irg));
315                 }
316
317                 set_ia32_Const_attr(cnst, node);
318                 SET_IA32_ORIG_NODE(cnst, ia32_get_old_node_name(env->cg, node));
319                 return cnst;
320         }
321
322         assert(0);
323         return new_r_Bad(irg);
324 }
325
326 /**
327  * Transforms a SymConst.
328  */
329 static ir_node *gen_SymConst(ia32_transform_env_t *env, ir_node *node) {
330         ir_graph *irg   = env->irg;
331         dbg_info *dbgi   = get_irn_dbg_info(node);
332         ir_mode  *mode  = get_irn_mode(node);
333         ir_node  *block = transform_node(env, get_nodes_block(node));
334         ir_node  *cnst;
335
336         if (mode_is_float(mode)) {
337                 FP_USED(env->cg);
338                 if (USE_SSE2(env->cg))
339                         cnst = new_rd_ia32_xConst(dbgi, irg, block);
340                 else
341                         cnst = new_rd_ia32_vfConst(dbgi, irg, block);
342                 set_ia32_ls_mode(cnst, mode);
343         } else {
344                 cnst = new_rd_ia32_Const(dbgi, irg, block);
345         }
346
347         /* Const Nodes before the initial IncSP are a bad idea, because
348          * they could be spilled and we have no SP ready at that point yet
349          */
350         if (get_irg_start_block(irg) == block) {
351                 add_irn_dep(cnst, get_irg_frame(irg));
352         }
353
354         set_ia32_Const_attr(cnst, node);
355         SET_IA32_ORIG_NODE(cnst, ia32_get_old_node_name(env->cg, node));
356
357         return cnst;
358 }
359
360 /**
361  * SSE convert of an integer node into a floating point node.
362  */
363 static ir_node *gen_sse_conv_int2float(ia32_code_gen_t *cg, dbg_info *dbgi,
364                                        ir_graph *irg, ir_node *block,
365                                        ir_node *in, ir_node *old_node, ir_mode *tgt_mode)
366 {
367         ir_node *noreg = ia32_new_NoReg_gp(cg);
368         ir_node *nomem = new_rd_NoMem(irg);
369         ir_node *old_pred = get_Cmp_left(old_node);
370         ir_mode *in_mode = get_irn_mode(old_pred);
371         int in_bits = get_mode_size_bits(in_mode);
372
373         ir_node *conv = new_rd_ia32_Conv_I2FP(dbgi, irg, block, noreg, noreg, in, nomem);
374         set_ia32_ls_mode(conv, tgt_mode);
375         if(in_bits == 32) {
376                 set_ia32_am_support(conv, ia32_am_Source);
377         }
378         SET_IA32_ORIG_NODE(conv, ia32_get_old_node_name(cg, old_node));
379
380         return conv;
381 }
382
383 /**
384  * SSE convert of an float node into a double node.
385  */
386 static ir_node *gen_sse_conv_f2d(ia32_code_gen_t *cg, dbg_info *dbgi,
387                                  ir_graph *irg, ir_node *block,
388                                  ir_node *in, ir_node *old_node)
389 {
390         ir_node *noreg = ia32_new_NoReg_gp(cg);
391         ir_node *nomem = new_rd_NoMem(irg);
392
393         ir_node *conv = new_rd_ia32_Conv_FP2FP(dbgi, irg, block, noreg, noreg, in, nomem);
394         set_ia32_am_support(conv, ia32_am_Source);
395         set_ia32_ls_mode(conv, mode_xmm);
396         SET_IA32_ORIG_NODE(conv, ia32_get_old_node_name(cg, old_node));
397
398         return conv;
399 }
400
401 /* Generates an entity for a known FP const (used for FP Neg + Abs) */
402 ir_entity *ia32_gen_fp_known_const(ia32_known_const_t kct) {
403         static const struct {
404                 const char *tp_name;
405                 const char *ent_name;
406                 const char *cnst_str;
407         } names [ia32_known_const_max] = {
408                 { TP_SFP_SIGN, ENT_SFP_SIGN, SFP_SIGN },        /* ia32_SSIGN */
409                 { TP_DFP_SIGN, ENT_DFP_SIGN, DFP_SIGN },        /* ia32_DSIGN */
410                 { TP_SFP_ABS,  ENT_SFP_ABS,  SFP_ABS },         /* ia32_SABS */
411                 { TP_DFP_ABS,  ENT_DFP_ABS,  DFP_ABS }          /* ia32_DABS */
412         };
413         static ir_entity *ent_cache[ia32_known_const_max];
414
415         const char    *tp_name, *ent_name, *cnst_str;
416         ir_type       *tp;
417         ir_node       *cnst;
418         ir_graph      *rem;
419         ir_entity     *ent;
420         tarval        *tv;
421         ir_mode       *mode;
422
423         ent_name = names[kct].ent_name;
424         if (! ent_cache[kct]) {
425                 tp_name  = names[kct].tp_name;
426                 cnst_str = names[kct].cnst_str;
427
428                 mode = kct == ia32_SSIGN || kct == ia32_SABS ? mode_Iu : mode_Lu;
429                 //mode = mode_xmm;
430                 tv  = new_tarval_from_str(cnst_str, strlen(cnst_str), mode);
431                 tp  = new_type_primitive(new_id_from_str(tp_name), mode);
432                 ent = new_entity(get_glob_type(), new_id_from_str(ent_name), tp);
433
434                 set_entity_ld_ident(ent, get_entity_ident(ent));
435                 set_entity_visibility(ent, visibility_local);
436                 set_entity_variability(ent, variability_constant);
437                 set_entity_allocation(ent, allocation_static);
438
439                 /* we create a new entity here: It's initialization must resist on the
440                     const code irg */
441                 rem = current_ir_graph;
442                 current_ir_graph = get_const_code_irg();
443                 cnst = new_Const(mode, tv);
444                 current_ir_graph = rem;
445
446                 set_atomic_ent_value(ent, cnst);
447
448                 /* cache the entry */
449                 ent_cache[kct] = ent;
450         }
451
452         return ent_cache[kct];
453 }
454
455 #ifndef NDEBUG
456 /**
457  * Prints the old node name on cg obst and returns a pointer to it.
458  */
459 const char *ia32_get_old_node_name(ia32_code_gen_t *cg, ir_node *irn) {
460         ia32_isa_t *isa = (ia32_isa_t *)cg->arch_env->isa;
461
462         lc_eoprintf(firm_get_arg_env(), isa->name_obst, "%+F", irn);
463         obstack_1grow(isa->name_obst, 0);
464         return obstack_finish(isa->name_obst);
465 }
466 #endif /* NDEBUG */
467
468 /* determine if one operator is an Imm */
469 static ir_node *get_immediate_op(ir_node *op1, ir_node *op2) {
470         if (op1) {
471                 return is_ia32_Cnst(op1) ? op1 : (is_ia32_Cnst(op2) ? op2 : NULL);
472         } else {
473                 return is_ia32_Cnst(op2) ? op2 : NULL;
474         }
475 }
476
477 /* determine if one operator is not an Imm */
478 static ir_node *get_expr_op(ir_node *op1, ir_node *op2) {
479         return !is_ia32_Cnst(op1) ? op1 : (!is_ia32_Cnst(op2) ? op2 : NULL);
480 }
481
482 static void fold_immediate(ia32_transform_env_t *env, ir_node *node, int in1, int in2) {
483         ir_node *left;
484         ir_node *right;
485
486         if(! (env->cg->opt & IA32_OPT_IMMOPS))
487                 return;
488
489         left = get_irn_n(node, in1);
490         right = get_irn_n(node, in2);
491         if(!is_ia32_Cnst(right) && is_ia32_Cnst(left)) {
492                 /* we can only set right operand to immediate */
493                 if(!is_ia32_commutative(node))
494                         return;
495                 /* exchange left/right */
496                 set_irn_n(node, in1, right);
497                 set_irn_n(node, in2, ia32_get_admissible_noreg(env->cg, node, in2));
498                 copy_ia32_Immop_attr(node, left);
499         } else if(is_ia32_Cnst(right)) {
500                 set_irn_n(node, in2, ia32_get_admissible_noreg(env->cg, node, in2));
501                 copy_ia32_Immop_attr(node, right);
502         } else {
503                 return;
504         }
505
506         set_ia32_am_support(node, get_ia32_am_support(node) & ~ia32_am_Source);
507 }
508
509 /**
510  * Construct a standard binary operation, set AM and immediate if required.
511  *
512  * @param env   The transformation environment
513  * @param op1   The first operand
514  * @param op2   The second operand
515  * @param func  The node constructor function
516  * @return The constructed ia32 node.
517  */
518 static ir_node *gen_binop(ia32_transform_env_t *env, ir_node *node,
519                           ir_node *op1, ir_node *op2,
520                           construct_binop_func *func) {
521         ir_node  *new_node = NULL;
522         ir_graph *irg      = env->irg;
523         dbg_info *dbgi      = get_irn_dbg_info(node);
524         ir_node  *block    = transform_node(env, get_nodes_block(node));
525         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
526         ir_node  *nomem    = new_NoMem();
527         ir_node  *new_op1  = transform_node(env, op1);
528         ir_node  *new_op2  = transform_node(env, op2);
529
530         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2, nomem);
531         if(func == new_rd_ia32_IMul) {
532                 set_ia32_am_support(new_node, ia32_am_Source);
533         } else {
534                 set_ia32_am_support(new_node, ia32_am_Full);
535         }
536
537         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
538         if (is_op_commutative(get_irn_op(node))) {
539                 set_ia32_commutative(new_node);
540         }
541         fold_immediate(env, new_node, 2, 3);
542
543         return new_node;
544 }
545
546 /**
547  * Construct a standard binary operation, set AM and immediate if required.
548  *
549  * @param env   The transformation environment
550  * @param op1   The first operand
551  * @param op2   The second operand
552  * @param func  The node constructor function
553  * @return The constructed ia32 node.
554  */
555 static ir_node *gen_binop_float(ia32_transform_env_t *env, ir_node *node,
556                                 ir_node *op1, ir_node *op2,
557                                 construct_binop_func *func)
558 {
559         ir_node  *new_node = NULL;
560         dbg_info *dbgi      = get_irn_dbg_info(node);
561         ir_graph *irg      = env->irg;
562         ir_mode  *mode     = get_irn_mode(node);
563         ir_node  *block    = transform_node(env, get_nodes_block(node));
564         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
565         ir_node  *nomem    = new_NoMem();
566         ir_node  *new_op1  = transform_node(env, op1);
567         ir_node  *new_op2  = transform_node(env, op2);
568
569         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2, nomem);
570         set_ia32_am_support(new_node, ia32_am_Source);
571         if (is_op_commutative(get_irn_op(node))) {
572                 set_ia32_commutative(new_node);
573         }
574         if (USE_SSE2(env->cg)) {
575                 set_ia32_ls_mode(new_node, mode);
576         }
577
578         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
579
580         return new_node;
581 }
582
583
584 /**
585  * Construct a shift/rotate binary operation, sets AM and immediate if required.
586  *
587  * @param env   The transformation environment
588  * @param op1   The first operand
589  * @param op2   The second operand
590  * @param func  The node constructor function
591  * @return The constructed ia32 node.
592  */
593 static ir_node *gen_shift_binop(ia32_transform_env_t *env, ir_node *node,
594                                 ir_node *op1, ir_node *op2,
595                                 construct_binop_func *func) {
596         ir_node    *new_op  = NULL;
597         dbg_info   *dbgi     = get_irn_dbg_info(node);
598         ir_graph   *irg     = env->irg;
599         ir_node    *block   = transform_node(env, get_nodes_block(node));
600         ir_node    *noreg   = ia32_new_NoReg_gp(env->cg);
601         ir_node    *nomem   = new_NoMem();
602         ir_node    *expr_op;
603         ir_node    *imm_op;
604         ir_node    *new_op1 = transform_node(env, op1);
605         ir_node    *new_op2 = transform_node(env, op2);
606         tarval     *tv;
607
608         assert(! mode_is_float(get_irn_mode(node))
609                  && "Shift/Rotate with float not supported");
610
611         /* Check if immediate optimization is on and */
612         /* if it's an operation with immediate.      */
613         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_op2) : NULL;
614         expr_op = get_expr_op(new_op1, new_op2);
615
616         assert((expr_op || imm_op) && "invalid operands");
617
618         if (!expr_op) {
619                 /* We have two consts here: not yet supported */
620                 imm_op = NULL;
621         }
622
623         /* Limit imm_op within range imm8 */
624         if (imm_op) {
625                 tv = get_ia32_Immop_tarval(imm_op);
626
627                 if (tv) {
628                         tv = tarval_mod(tv, new_tarval_from_long(32, get_tarval_mode(tv)));
629                         set_ia32_Immop_tarval(imm_op, tv);
630                 }
631                 else {
632                         imm_op = NULL;
633                 }
634         }
635
636         /* integer operations */
637         if (imm_op) {
638                 /* This is shift/rot with const */
639                 DB((dbg, LEVEL_1, "Shift/Rot with immediate ..."));
640
641                 new_op = func(dbgi, irg, block, noreg, noreg, expr_op, noreg, nomem);
642                 copy_ia32_Immop_attr(new_op, imm_op);
643         } else {
644                 /* This is a normal shift/rot */
645                 DB((dbg, LEVEL_1, "Shift/Rot binop ..."));
646                 new_op = func(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
647         }
648
649         /* set AM support */
650         set_ia32_am_support(new_op, ia32_am_Dest);
651
652         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
653
654         set_ia32_emit_cl(new_op);
655
656         return new_op;
657 }
658
659
660 /**
661  * Construct a standard unary operation, set AM and immediate if required.
662  *
663  * @param env   The transformation environment
664  * @param op    The operand
665  * @param func  The node constructor function
666  * @return The constructed ia32 node.
667  */
668 static ir_node *gen_unop(ia32_transform_env_t *env, ir_node *node, ir_node *op,
669                          construct_unop_func *func) {
670         ir_node           *new_node = NULL;
671         ir_graph          *irg    = env->irg;
672         dbg_info          *dbgi    = get_irn_dbg_info(node);
673         ir_node           *block  = transform_node(env, get_nodes_block(node));
674         ir_node           *noreg  = ia32_new_NoReg_gp(env->cg);
675         ir_node           *nomem  = new_NoMem();
676         ir_node           *new_op = transform_node(env, op);
677
678         new_node = func(dbgi, irg, block, noreg, noreg, new_op, nomem);
679         DB((dbg, LEVEL_1, "INT unop ..."));
680         set_ia32_am_support(new_node, ia32_am_Dest);
681
682         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
683
684         return new_node;
685 }
686
687
688 /**
689  * Creates an ia32 Add.
690  *
691  * @param env   The transformation environment
692  * @return the created ia32 Add node
693  */
694 static ir_node *gen_Add(ia32_transform_env_t *env, ir_node *node) {
695         ir_node  *new_op = NULL;
696         ir_graph *irg    = env->irg;
697         dbg_info *dbgi    = get_irn_dbg_info(node);
698         ir_mode  *mode   = get_irn_mode(node);
699         ir_node  *block  = transform_node(env, get_nodes_block(node));
700         ir_node  *noreg  = ia32_new_NoReg_gp(env->cg);
701         ir_node  *nomem  = new_NoMem();
702         ir_node  *expr_op, *imm_op;
703         ir_node  *op1    = get_Add_left(node);
704         ir_node  *op2    = get_Add_right(node);
705         ir_node  *new_op1 = transform_node(env, op1);
706         ir_node  *new_op2 = transform_node(env, op2);
707
708         /* Check if immediate optimization is on and */
709         /* if it's an operation with immediate.      */
710         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(new_op1, new_op2) : NULL;
711         expr_op = get_expr_op(new_op1, new_op2);
712
713         assert((expr_op || imm_op) && "invalid operands");
714
715         if (mode_is_float(mode)) {
716                 FP_USED(env->cg);
717                 if (USE_SSE2(env->cg))
718                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xAdd);
719                 else
720                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfadd);
721         }
722
723         /* integer ADD */
724         if (!expr_op) {
725                 ia32_immop_type_t tp1 = get_ia32_immop_type(new_op1);
726                 ia32_immop_type_t tp2 = get_ia32_immop_type(new_op2);
727
728                 /* No expr_op means, that we have two const - one symconst and */
729                 /* one tarval or another symconst - because this case is not   */
730                 /* covered by constant folding                                 */
731                 /* We need to check for:                                       */
732                 /*  1) symconst + const    -> becomes a LEA                    */
733                 /*  2) symconst + symconst -> becomes a const + LEA as the elf */
734                 /*        linker doesn't support two symconsts                 */
735
736                 if (tp1 == ia32_ImmSymConst && tp2 == ia32_ImmSymConst) {
737                         /* this is the 2nd case */
738                         new_op = new_rd_ia32_Lea(dbgi, irg, block, new_op1, noreg);
739                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
740                         set_ia32_am_flavour(new_op, ia32_am_OB);
741                         set_ia32_am_support(new_op, ia32_am_Source);
742                         set_ia32_op_type(new_op, ia32_AddrModeS);
743
744                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
745                 } else if (tp1 == ia32_ImmSymConst) {
746                         tarval *tv = get_ia32_Immop_tarval(new_op2);
747                         long offs = get_tarval_long(tv);
748
749                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
750                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
751
752                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op1));
753                         add_ia32_am_offs_int(new_op, offs);
754                         set_ia32_am_flavour(new_op, ia32_am_O);
755                         set_ia32_am_support(new_op, ia32_am_Source);
756                         set_ia32_op_type(new_op, ia32_AddrModeS);
757                 } else if (tp2 == ia32_ImmSymConst) {
758                         tarval *tv = get_ia32_Immop_tarval(new_op1);
759                         long offs = get_tarval_long(tv);
760
761                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
762                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
763
764                         add_ia32_am_offs_int(new_op, offs);
765                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
766                         set_ia32_am_flavour(new_op, ia32_am_O);
767                         set_ia32_am_support(new_op, ia32_am_Source);
768                         set_ia32_op_type(new_op, ia32_AddrModeS);
769                 } else {
770                         tarval *tv1 = get_ia32_Immop_tarval(new_op1);
771                         tarval *tv2 = get_ia32_Immop_tarval(new_op2);
772                         tarval *restv = tarval_add(tv1, tv2);
773
774                         DEBUG_ONLY(ir_fprintf(stderr, "Warning: add with 2 consts not folded: %+F\n", node));
775
776                         new_op = new_rd_ia32_Const(dbgi, irg, block);
777                         set_ia32_Const_tarval(new_op, restv);
778                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
779                 }
780
781                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
782                 return new_op;
783         } else if (imm_op) {
784                 if((env->cg->opt & IA32_OPT_INCDEC) && get_ia32_immop_type(imm_op) == ia32_ImmConst) {
785                         tarval_classification_t class_tv, class_negtv;
786                         tarval *tv = get_ia32_Immop_tarval(imm_op);
787
788                         /* optimize tarvals */
789                         class_tv    = classify_tarval(tv);
790                         class_negtv = classify_tarval(tarval_neg(tv));
791
792                         if (class_tv == TV_CLASSIFY_ONE) { /* + 1 == INC */
793                                 DB((dbg, LEVEL_2, "Add(1) to Inc ... "));
794                                 new_op     = new_rd_ia32_Inc(dbgi, irg, block, noreg, noreg, expr_op, nomem);
795                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
796                                 return new_op;
797                         } else if (class_tv == TV_CLASSIFY_ALL_ONE || class_negtv == TV_CLASSIFY_ONE) { /* + (-1) == DEC */
798                                 DB((dbg, LEVEL_2, "Add(-1) to Dec ... "));
799                                 new_op     = new_rd_ia32_Dec(dbgi, irg, block, noreg, noreg, expr_op, nomem);
800                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
801                                 return new_op;
802                         }
803                 }
804         }
805
806         /* This is a normal add */
807         new_op = new_rd_ia32_Add(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
808
809         /* set AM support */
810         set_ia32_am_support(new_op, ia32_am_Full);
811         set_ia32_commutative(new_op);
812
813         fold_immediate(env, new_op, 2, 3);
814
815         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
816
817         return new_op;
818 }
819
820 #if 0
821 static ir_node *create_ia32_Mul(ia32_transform_env_t *env, ir_node *node) {
822         ir_graph *irg = env->irg;
823         dbg_info *dbgi = get_irn_dbg_info(node);
824         ir_node *block = transform_node(env, get_nodes_block(node));
825         ir_node *op1 = get_Mul_left(node);
826         ir_node *op2 = get_Mul_right(node);
827         ir_node *new_op1 = transform_node(env, op1);
828         ir_node *new_op2 = transform_node(env, op2);
829         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
830         ir_node *proj_EAX, *proj_EDX, *res;
831         ir_node *in[1];
832
833         res = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
834         set_ia32_commutative(res);
835         set_ia32_am_support(res, ia32_am_Source);
836
837         /* imediates are not supported, so no fold_immediate */
838         proj_EAX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
839         proj_EDX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
840
841         /* keep EAX */
842         in[0] = proj_EDX;
843         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in);
844
845         return proj_EAX;
846 }
847 #endif
848
849
850 /**
851  * Creates an ia32 Mul.
852  *
853  * @param env   The transformation environment
854  * @return the created ia32 Mul node
855  */
856 static ir_node *gen_Mul(ia32_transform_env_t *env, ir_node *node) {
857         ir_node *op1 = get_Mul_left(node);
858         ir_node *op2 = get_Mul_right(node);
859         ir_mode *mode = get_irn_mode(node);
860
861         if (mode_is_float(mode)) {
862                 FP_USED(env->cg);
863                 if (USE_SSE2(env->cg))
864                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xMul);
865                 else
866                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfmul);
867         }
868
869         // for the lower 32bit of the result it doesn't matter whether we use
870         // signed or unsigned multiplication so we use IMul as it has fewer
871         // constraints
872         return gen_binop(env, node, op1, op2, new_rd_ia32_IMul);
873 }
874
875 /**
876  * Creates an ia32 Mulh.
877  * Note: Mul produces a 64Bit result and Mulh returns the upper 32 bit of
878  * this result while Mul returns the lower 32 bit.
879  *
880  * @param env   The transformation environment
881  * @return the created ia32 Mulh node
882  */
883 static ir_node *gen_Mulh(ia32_transform_env_t *env, ir_node *node) {
884         ir_graph    *irg = env->irg;
885         dbg_info    *dbgi = get_irn_dbg_info(node);
886         ir_node   *block = transform_node(env, get_nodes_block(node));
887         ir_node     *op1 = get_irn_n(node, 0);
888         ir_node     *op2 = get_irn_n(node, 1);
889         ir_node *new_op1 = transform_node(env, op1);
890         ir_node *new_op2 = transform_node(env, op2);
891         ir_node   *noreg = ia32_new_NoReg_gp(env->cg);
892         ir_node *proj_EAX, *proj_EDX, *res;
893         ir_mode *mode = get_irn_mode(node);
894         ir_node *in[1];
895
896         assert(!mode_is_float(mode) && "Mulh with float not supported");
897         if(mode_is_signed(mode)) {
898                 res = new_rd_ia32_IMul1OP(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
899         } else {
900                 res = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
901         }
902
903         set_ia32_commutative(res);
904         set_ia32_am_support(res, ia32_am_Source);
905
906         set_ia32_am_support(res, ia32_am_Source);
907
908         proj_EAX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
909         proj_EDX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
910
911         /* keep EAX */
912         in[0] = proj_EAX;
913         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in);
914
915         return proj_EDX;
916 }
917
918
919
920 /**
921  * Creates an ia32 And.
922  *
923  * @param env   The transformation environment
924  * @return The created ia32 And node
925  */
926 static ir_node *gen_And(ia32_transform_env_t *env, ir_node *node) {
927         ir_node *op1 = get_And_left(node);
928         ir_node *op2 = get_And_right(node);
929
930         assert (! mode_is_float(get_irn_mode(node)));
931         return gen_binop(env, node, op1, op2, new_rd_ia32_And);
932 }
933
934
935
936 /**
937  * Creates an ia32 Or.
938  *
939  * @param env   The transformation environment
940  * @return The created ia32 Or node
941  */
942 static ir_node *gen_Or(ia32_transform_env_t *env, ir_node *node) {
943         ir_node *op1 = get_Or_left(node);
944         ir_node *op2 = get_Or_right(node);
945
946         assert (! mode_is_float(get_irn_mode(node)));
947         return gen_binop(env, node, op1, op2, new_rd_ia32_Or);
948 }
949
950
951
952 /**
953  * Creates an ia32 Eor.
954  *
955  * @param env   The transformation environment
956  * @return The created ia32 Eor node
957  */
958 static ir_node *gen_Eor(ia32_transform_env_t *env, ir_node *node) {
959         ir_node *op1 = get_Eor_left(node);
960         ir_node *op2 = get_Eor_right(node);
961
962         assert(! mode_is_float(get_irn_mode(node)));
963         return gen_binop(env, node, op1, op2, new_rd_ia32_Xor);
964 }
965
966
967
968 /**
969  * Creates an ia32 Max.
970  *
971  * @param env      The transformation environment
972  * @return the created ia32 Max node
973  */
974 static ir_node *gen_Max(ia32_transform_env_t *env, ir_node *node) {
975         ir_graph *irg = env->irg;
976         ir_node *new_op;
977         ir_mode *mode = get_irn_mode(node);
978         dbg_info *dbgi = get_irn_dbg_info(node);
979         ir_node *block = transform_node(env, get_nodes_block(node));
980         ir_node *op1 = get_irn_n(node, 0);
981         ir_node *op2 = get_irn_n(node, 1);
982         ir_node *new_op1 = transform_node(env, op1);
983         ir_node *new_op2 = transform_node(env, op2);
984         ir_mode *op_mode = get_irn_mode(op1);
985
986         assert(get_mode_size_bits(mode) == 32);
987
988         if (mode_is_float(mode)) {
989                 FP_USED(env->cg);
990                 if (USE_SSE2(env->cg)) {
991                         new_op = gen_binop_float(env, node, new_op1, new_op2, new_rd_ia32_xMax);
992                 } else {
993                         panic("Can't create Max node");
994                 }
995         } else {
996                 long pnc = pn_Cmp_Gt;
997                 if(!mode_is_signed(op_mode)) {
998                         pnc |= ia32_pn_Cmp_Unsigned;
999                 }
1000                 new_op = new_rd_ia32_CmpCMov(dbgi, irg, block, new_op1, new_op2, new_op1, new_op2);
1001                 set_ia32_pncode(new_op, pnc);
1002                 set_ia32_am_support(new_op, ia32_am_None);
1003         }
1004         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1005
1006         return new_op;
1007 }
1008
1009 /**
1010  * Creates an ia32 Min.
1011  *
1012  * @param env      The transformation environment
1013  * @return the created ia32 Min node
1014  */
1015 static ir_node *gen_Min(ia32_transform_env_t *env, ir_node *node) {
1016         ir_graph *irg = env->irg;
1017         ir_node *new_op;
1018         ir_mode *mode = get_irn_mode(node);
1019         dbg_info *dbgi = get_irn_dbg_info(node);
1020         ir_node *block = transform_node(env, get_nodes_block(node));
1021         ir_node *op1 = get_irn_n(node, 0);
1022         ir_node *op2 = get_irn_n(node, 1);
1023         ir_node *new_op1 = transform_node(env, op1);
1024         ir_node *new_op2 = transform_node(env, op2);
1025         ir_mode *op_mode = get_irn_mode(op1);
1026
1027         assert(get_mode_size_bits(mode) == 32);
1028
1029         if (mode_is_float(mode)) {
1030                 FP_USED(env->cg);
1031                 if (USE_SSE2(env->cg)) {
1032                         new_op = gen_binop_float(env, node, op1, op2, new_rd_ia32_xMin);
1033                 } else {
1034                         panic("can't create Min node");
1035                 }
1036         } else {
1037                 long pnc = pn_Cmp_Lt;
1038                 if(!mode_is_signed(op_mode)) {
1039                         pnc |= ia32_pn_Cmp_Unsigned;
1040                 }
1041                 new_op = new_rd_ia32_CmpCMov(dbgi, irg, block, new_op1, new_op2, new_op1, new_op2);
1042                 set_ia32_pncode(new_op, pnc);
1043                 set_ia32_am_support(new_op, ia32_am_None);
1044         }
1045         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1046
1047         return new_op;
1048 }
1049
1050
1051 /**
1052  * Creates an ia32 Sub.
1053  *
1054  * @param env   The transformation environment
1055  * @return The created ia32 Sub node
1056  */
1057 static ir_node *gen_Sub(ia32_transform_env_t *env, ir_node *node) {
1058         ir_node  *new_op = NULL;
1059         ir_graph *irg    = env->irg;
1060         dbg_info *dbgi    = get_irn_dbg_info(node);
1061         ir_mode  *mode   = get_irn_mode(node);
1062         ir_node  *block  = transform_node(env, get_nodes_block(node));
1063         ir_node  *noreg  = ia32_new_NoReg_gp(env->cg);
1064         ir_node  *nomem  = new_NoMem();
1065         ir_node  *op1    = get_Sub_left(node);
1066         ir_node  *op2    = get_Sub_right(node);
1067         ir_node *new_op1 = transform_node(env, op1);
1068         ir_node *new_op2 = transform_node(env, op2);
1069         ir_node  *expr_op, *imm_op;
1070
1071         /* Check if immediate optimization is on and */
1072         /* if it's an operation with immediate.      */
1073         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_op2) : NULL;
1074         expr_op = get_expr_op(new_op1, new_op2);
1075
1076         assert((expr_op || imm_op) && "invalid operands");
1077
1078         if (mode_is_float(mode)) {
1079                 FP_USED(env->cg);
1080                 if (USE_SSE2(env->cg))
1081                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xSub);
1082                 else
1083                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfsub);
1084         }
1085
1086         /* integer SUB */
1087         if (! expr_op) {
1088                 ia32_immop_type_t tp1 = get_ia32_immop_type(new_op1);
1089                 ia32_immop_type_t tp2 = get_ia32_immop_type(new_op2);
1090
1091                 /* No expr_op means, that we have two const - one symconst and */
1092                 /* one tarval or another symconst - because this case is not   */
1093                 /* covered by constant folding                                 */
1094                 /* We need to check for:                                       */
1095                 /*  1) symconst - const    -> becomes a LEA                    */
1096                 /*  2) symconst - symconst -> becomes a const - LEA as the elf */
1097                 /*        linker doesn't support two symconsts                 */
1098                 if (tp1 == ia32_ImmSymConst && tp2 == ia32_ImmSymConst) {
1099                         /* this is the 2nd case */
1100                         new_op = new_rd_ia32_Lea(dbgi, irg, block, new_op1, noreg);
1101                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(op2));
1102                         set_ia32_am_sc_sign(new_op);
1103                         set_ia32_am_flavour(new_op, ia32_am_OB);
1104
1105                         DBG_OPT_LEA3(op1, op2, node, new_op);
1106                 } else if (tp1 == ia32_ImmSymConst) {
1107                         tarval *tv = get_ia32_Immop_tarval(new_op2);
1108                         long offs = get_tarval_long(tv);
1109
1110                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
1111                         DBG_OPT_LEA3(op1, op2, node, new_op);
1112
1113                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op1));
1114                         add_ia32_am_offs_int(new_op, -offs);
1115                         set_ia32_am_flavour(new_op, ia32_am_O);
1116                         set_ia32_am_support(new_op, ia32_am_Source);
1117                         set_ia32_op_type(new_op, ia32_AddrModeS);
1118                 } else if (tp2 == ia32_ImmSymConst) {
1119                         tarval *tv = get_ia32_Immop_tarval(new_op1);
1120                         long offs = get_tarval_long(tv);
1121
1122                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
1123                         DBG_OPT_LEA3(op1, op2, node, new_op);
1124
1125                         add_ia32_am_offs_int(new_op, offs);
1126                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
1127                         set_ia32_am_sc_sign(new_op);
1128                         set_ia32_am_flavour(new_op, ia32_am_O);
1129                         set_ia32_am_support(new_op, ia32_am_Source);
1130                         set_ia32_op_type(new_op, ia32_AddrModeS);
1131                 } else {
1132                         tarval *tv1 = get_ia32_Immop_tarval(new_op1);
1133                         tarval *tv2 = get_ia32_Immop_tarval(new_op2);
1134                         tarval *restv = tarval_sub(tv1, tv2);
1135
1136                         DEBUG_ONLY(ir_fprintf(stderr, "Warning: sub with 2 consts not folded: %+F\n", node));
1137
1138                         new_op = new_rd_ia32_Const(dbgi, irg, block);
1139                         set_ia32_Const_tarval(new_op, restv);
1140                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
1141                 }
1142
1143                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1144                 return new_op;
1145         } else if (imm_op) {
1146                 if((env->cg->opt & IA32_OPT_INCDEC) && get_ia32_immop_type(imm_op) == ia32_ImmConst) {
1147                         tarval_classification_t class_tv, class_negtv;
1148                         tarval *tv = get_ia32_Immop_tarval(imm_op);
1149
1150                         /* optimize tarvals */
1151                         class_tv    = classify_tarval(tv);
1152                         class_negtv = classify_tarval(tarval_neg(tv));
1153
1154                         if (class_tv == TV_CLASSIFY_ONE) {
1155                                 DB((dbg, LEVEL_2, "Sub(1) to Dec ... "));
1156                                 new_op     = new_rd_ia32_Dec(dbgi, irg, block, noreg, noreg, expr_op, nomem);
1157                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1158                                 return new_op;
1159                         } else if (class_tv == TV_CLASSIFY_ALL_ONE || class_negtv == TV_CLASSIFY_ONE) {
1160                                 DB((dbg, LEVEL_2, "Sub(-1) to Inc ... "));
1161                                 new_op     = new_rd_ia32_Inc(dbgi, irg, block, noreg, noreg, expr_op, nomem);
1162                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1163                                 return new_op;
1164                         }
1165                 }
1166         }
1167
1168         /* This is a normal sub */
1169         new_op = new_rd_ia32_Sub(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1170
1171         /* set AM support */
1172         set_ia32_am_support(new_op, ia32_am_Full);
1173
1174         fold_immediate(env, new_op, 2, 3);
1175
1176         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1177
1178         return new_op;
1179 }
1180
1181
1182
1183 /**
1184  * Generates an ia32 DivMod with additional infrastructure for the
1185  * register allocator if needed.
1186  *
1187  * @param env      The transformation environment
1188  * @param dividend -no comment- :)
1189  * @param divisor  -no comment- :)
1190  * @param dm_flav  flavour_Div/Mod/DivMod
1191  * @return The created ia32 DivMod node
1192  */
1193 static ir_node *generate_DivMod(ia32_transform_env_t *env, ir_node *node,
1194                                 ir_node *dividend, ir_node *divisor,
1195                                 ia32_op_flavour_t dm_flav) {
1196         ir_graph *irg   = env->irg;
1197         dbg_info *dbgi   = get_irn_dbg_info(node);
1198         ir_mode  *mode  = get_irn_mode(node);
1199         ir_node  *block = transform_node(env, get_nodes_block(node));
1200         ir_node  *res, *proj_div, *proj_mod;
1201         ir_node  *edx_node, *cltd;
1202         ir_node  *in_keep[1];
1203         ir_node  *mem, *new_mem;
1204         ir_node  *projs[pn_DivMod_max];
1205         ir_node  *noreg = ia32_new_NoReg_gp(env->cg);
1206         ir_node *new_dividend = transform_node(env, dividend);
1207         ir_node *new_divisor = transform_node(env, divisor);
1208
1209         ia32_collect_Projs(node, projs, pn_DivMod_max);
1210
1211         switch (dm_flav) {
1212                 case flavour_Div:
1213                         mem  = get_Div_mem(node);
1214                         mode = get_irn_mode(be_get_Proj_for_pn(node, pn_Div_res));
1215                         break;
1216                 case flavour_Mod:
1217                         mem  = get_Mod_mem(node);
1218                         mode = get_irn_mode(be_get_Proj_for_pn(node, pn_Mod_res));
1219                         break;
1220                 case flavour_DivMod:
1221                         mem      = get_DivMod_mem(node);
1222                         proj_div = be_get_Proj_for_pn(node, pn_DivMod_res_div);
1223                         proj_mod = be_get_Proj_for_pn(node, pn_DivMod_res_mod);
1224                         mode     = proj_div ? get_irn_mode(proj_div) : get_irn_mode(proj_mod);
1225                         break;
1226                 default:
1227                         panic("invalid divmod flavour!");
1228         }
1229         new_mem = transform_node(env, mem);
1230
1231         if (mode_is_signed(mode)) {
1232                 /* in signed mode, we need to sign extend the dividend */
1233                 cltd     = new_rd_ia32_Cltd(dbgi, irg, block, new_dividend);
1234                 new_dividend = new_rd_Proj(dbgi, irg, block, cltd, mode_Iu, pn_ia32_Cltd_EAX);
1235                 edx_node = new_rd_Proj(dbgi, irg, block, cltd, mode_Iu, pn_ia32_Cltd_EDX);
1236         } else {
1237                 edx_node = new_rd_ia32_Const(dbgi, irg, block);
1238                 add_irn_dep(edx_node, be_abi_get_start_barrier(env->cg->birg->abi));
1239                 set_ia32_Immop_tarval(edx_node, get_tarval_null(mode_Iu));
1240         }
1241
1242         if(mode_is_signed(mode)) {
1243                 res = new_rd_ia32_IDiv(dbgi, irg, block, noreg, noreg, new_dividend, edx_node, new_divisor, new_mem, dm_flav);
1244         } else {
1245                 res = new_rd_ia32_Div(dbgi, irg, block, noreg, noreg, new_dividend, edx_node, new_divisor, new_mem, dm_flav);
1246         }
1247
1248         /* Matze: code can't handle this at the moment... */
1249 #if 0
1250         /* set AM support */
1251         set_ia32_am_support(res, ia32_am_Source);
1252 #endif
1253
1254         set_ia32_n_res(res, 2);
1255
1256         /* Only one proj is used -> We must add a second proj and */
1257         /* connect this one to a Keep node to eat up the second   */
1258         /* destroyed register.                                    */
1259         /* We also renumber the Firm projs into ia32 projs.       */
1260
1261         switch (get_irn_opcode(node)) {
1262                 case iro_Div:
1263                         /* add Proj-Keep for mod res */
1264                         in_keep[0] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_mod_res);
1265                         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in_keep);
1266                         break;
1267                 case iro_Mod:
1268                         /* add Proj-Keep for div res */
1269                         in_keep[0] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_div_res);
1270                         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in_keep);
1271                         break;
1272                 case iro_DivMod:
1273                         /* check, which Proj-Keep, we need to add */
1274                         proj_div = be_get_Proj_for_pn(node, pn_DivMod_res_div);
1275                         proj_mod = be_get_Proj_for_pn(node, pn_DivMod_res_mod);
1276
1277                         if (proj_div && proj_mod) {
1278                                 /* nothing to be done */
1279                         }
1280                         else if (! proj_div && ! proj_mod) {
1281                                 assert(0 && "Missing DivMod result proj");
1282                         }
1283                         else if (! proj_div) {
1284                                 /* We have only mod result: add div res Proj-Keep */
1285                                 in_keep[0] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_div_res);
1286                                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in_keep);
1287                         }
1288                         else {
1289                                 /* We have only div result: add mod res Proj-Keep */
1290                                 in_keep[0] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_mod_res);
1291                                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in_keep);
1292                         }
1293                         break;
1294                 default:
1295                         assert(0 && "Div, Mod, or DivMod expected.");
1296                         break;
1297         }
1298
1299         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1300
1301         return res;
1302 }
1303
1304
1305 /**
1306  * Wrapper for generate_DivMod. Sets flavour_Mod.
1307  *
1308  * @param env      The transformation environment
1309  */
1310 static ir_node *gen_Mod(ia32_transform_env_t *env, ir_node *node) {
1311         return generate_DivMod(env, node, get_Mod_left(node),
1312                                get_Mod_right(node), flavour_Mod);
1313 }
1314
1315 /**
1316  * Wrapper for generate_DivMod. Sets flavour_Div.
1317  *
1318  * @param env      The transformation environment
1319  */
1320 static ir_node *gen_Div(ia32_transform_env_t *env, ir_node *node) {
1321         return generate_DivMod(env, node, get_Div_left(node),
1322                                get_Div_right(node), flavour_Div);
1323 }
1324
1325 /**
1326  * Wrapper for generate_DivMod. Sets flavour_DivMod.
1327  */
1328 static ir_node *gen_DivMod(ia32_transform_env_t *env, ir_node *node) {
1329         return generate_DivMod(env, node, get_DivMod_left(node),
1330                                get_DivMod_right(node), flavour_DivMod);
1331 }
1332
1333
1334
1335 /**
1336  * Creates an ia32 floating Div.
1337  *
1338  * @param env   The transformation environment
1339  * @return The created ia32 xDiv node
1340  */
1341 static ir_node *gen_Quot(ia32_transform_env_t *env, ir_node *node) {
1342         ir_graph *irg = env->irg;
1343         dbg_info *dbgi = get_irn_dbg_info(node);
1344         ir_node *block = transform_node(env, get_nodes_block(node));
1345         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
1346         ir_node *new_op;
1347         ir_node *nomem = new_rd_NoMem(env->irg);
1348         ir_node *op1   = get_Quot_left(node);
1349         ir_node *op2   = get_Quot_right(node);
1350         ir_node *new_op1 = transform_node(env, op1);
1351         ir_node *new_op2 = transform_node(env, op2);
1352
1353         FP_USED(env->cg);
1354         if (USE_SSE2(env->cg)) {
1355                 ir_mode *mode = get_irn_mode(op1);
1356                 if (is_ia32_xConst(new_op2)) {
1357                         new_op = new_rd_ia32_xDiv(dbgi, irg, block, noreg, noreg, new_op1, noreg, nomem);
1358                         set_ia32_am_support(new_op, ia32_am_None);
1359                         copy_ia32_Immop_attr(new_op, new_op2);
1360                 } else {
1361                         new_op = new_rd_ia32_xDiv(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1362                         // Matze: disabled for now, spillslot coalescer fails
1363                         //set_ia32_am_support(new_op, ia32_am_Source);
1364                 }
1365                 set_ia32_ls_mode(new_op, mode);
1366         } else {
1367                 new_op = new_rd_ia32_vfdiv(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1368                 // Matze: disabled for now (spillslot coalescer fails)
1369                 //set_ia32_am_support(new_op, ia32_am_Source);
1370         }
1371         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1372         return new_op;
1373 }
1374
1375
1376 /**
1377  * Creates an ia32 Shl.
1378  *
1379  * @param env   The transformation environment
1380  * @return The created ia32 Shl node
1381  */
1382 static ir_node *gen_Shl(ia32_transform_env_t *env, ir_node *node) {
1383         return gen_shift_binop(env, node, get_Shl_left(node), get_Shl_right(node),
1384                                new_rd_ia32_Shl);
1385 }
1386
1387
1388
1389 /**
1390  * Creates an ia32 Shr.
1391  *
1392  * @param env   The transformation environment
1393  * @return The created ia32 Shr node
1394  */
1395 static ir_node *gen_Shr(ia32_transform_env_t *env, ir_node *node) {
1396         return gen_shift_binop(env, node, get_Shr_left(node),
1397                                get_Shr_right(node), new_rd_ia32_Shr);
1398 }
1399
1400
1401
1402 /**
1403  * Creates an ia32 Sar.
1404  *
1405  * @param env   The transformation environment
1406  * @return The created ia32 Shrs node
1407  */
1408 static ir_node *gen_Shrs(ia32_transform_env_t *env, ir_node *node) {
1409         return gen_shift_binop(env, node, get_Shrs_left(node),
1410                                get_Shrs_right(node), new_rd_ia32_Sar);
1411 }
1412
1413
1414
1415 /**
1416  * Creates an ia32 RotL.
1417  *
1418  * @param env   The transformation environment
1419  * @param op1   The first operator
1420  * @param op2   The second operator
1421  * @return The created ia32 RotL node
1422  */
1423 static ir_node *gen_RotL(ia32_transform_env_t *env, ir_node *node,
1424                          ir_node *op1, ir_node *op2) {
1425         return gen_shift_binop(env, node, op1, op2, new_rd_ia32_Rol);
1426 }
1427
1428
1429
1430 /**
1431  * Creates an ia32 RotR.
1432  * NOTE: There is no RotR with immediate because this would always be a RotL
1433  *       "imm-mode_size_bits" which can be pre-calculated.
1434  *
1435  * @param env   The transformation environment
1436  * @param op1   The first operator
1437  * @param op2   The second operator
1438  * @return The created ia32 RotR node
1439  */
1440 static ir_node *gen_RotR(ia32_transform_env_t *env, ir_node *node, ir_node *op1,
1441                          ir_node *op2) {
1442         return gen_shift_binop(env, node, op1, op2, new_rd_ia32_Ror);
1443 }
1444
1445
1446
1447 /**
1448  * Creates an ia32 RotR or RotL (depending on the found pattern).
1449  *
1450  * @param env   The transformation environment
1451  * @return The created ia32 RotL or RotR node
1452  */
1453 static ir_node *gen_Rot(ia32_transform_env_t *env, ir_node *node) {
1454         ir_node *rotate = NULL;
1455         ir_node *op1    = get_Rot_left(node);
1456         ir_node *op2    = get_Rot_right(node);
1457
1458         /* Firm has only Rot (which is a RotL), so we are looking for a right (op2)
1459                  operand "-e+mode_size_bits" (it's an already modified "mode_size_bits-e",
1460                  that means we can create a RotR instead of an Add and a RotL */
1461
1462         if (get_irn_op(op2) == op_Add) {
1463                 ir_node *add = op2;
1464                 ir_node *left = get_Add_left(add);
1465                 ir_node *right = get_Add_right(add);
1466                 if (is_Const(right)) {
1467                         tarval  *tv        = get_Const_tarval(right);
1468                         ir_mode *mode      = get_irn_mode(node);
1469                         long     bits      = get_mode_size_bits(mode);
1470
1471                         if (get_irn_op(left) == op_Minus &&
1472                                         tarval_is_long(tv)       &&
1473                                         get_tarval_long(tv) == bits)
1474                         {
1475                                 DB((dbg, LEVEL_1, "RotL into RotR ... "));
1476                                 rotate = gen_RotR(env, node, op1, get_Minus_op(left));
1477                         }
1478                 }
1479         }
1480
1481         if (rotate == NULL) {
1482                 rotate = gen_RotL(env, node, op1, op2);
1483         }
1484
1485         return rotate;
1486 }
1487
1488
1489
1490 /**
1491  * Transforms a Minus node.
1492  *
1493  * @param env   The transformation environment
1494  * @param op    The Minus operand
1495  * @return The created ia32 Minus node
1496  */
1497 ir_node *gen_Minus_ex(ia32_transform_env_t *env, ir_node *node, ir_node *op) {
1498         ir_entity *ent;
1499         ir_node   *res;
1500         ir_graph  *irg   = env->irg;
1501         dbg_info  *dbgi  = get_irn_dbg_info(node);
1502         ir_node   *block = transform_node(env, get_nodes_block(node));
1503         ir_mode   *mode  = get_irn_mode(node);
1504         int        size;
1505
1506         if (mode_is_float(mode)) {
1507                 ir_node *new_op = transform_node(env, op);
1508                 FP_USED(env->cg);
1509                 if (USE_SSE2(env->cg)) {
1510                         ir_node *noreg_gp = ia32_new_NoReg_gp(env->cg);
1511                         ir_node *noreg_fp = ia32_new_NoReg_fp(env->cg);
1512                         ir_node *nomem    = new_rd_NoMem(irg);
1513
1514                         res = new_rd_ia32_xXor(dbgi, irg, block, noreg_gp, noreg_gp, new_op, noreg_fp, nomem);
1515
1516                         size   = get_mode_size_bits(mode);
1517                         ent    = ia32_gen_fp_known_const(size == 32 ? ia32_SSIGN : ia32_DSIGN);
1518
1519                         set_ia32_am_sc(res, ent);
1520                         set_ia32_op_type(res, ia32_AddrModeS);
1521                         set_ia32_ls_mode(res, mode);
1522                 } else {
1523                         res = new_rd_ia32_vfchs(dbgi, irg, block, new_op);
1524                 }
1525         } else {
1526                 res = gen_unop(env, node, op, new_rd_ia32_Neg);
1527         }
1528
1529         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1530
1531         return res;
1532 }
1533
1534 /**
1535  * Transforms a Minus node.
1536  *
1537  * @param env   The transformation environment
1538  * @return The created ia32 Minus node
1539  */
1540 static ir_node *gen_Minus(ia32_transform_env_t *env, ir_node *node) {
1541         return gen_Minus_ex(env, node, get_Minus_op(node));
1542 }
1543
1544
1545 /**
1546  * Transforms a Not node.
1547  *
1548  * @param env   The transformation environment
1549  * @return The created ia32 Not node
1550  */
1551 static ir_node *gen_Not(ia32_transform_env_t *env, ir_node *node) {
1552         ir_node *op = get_Not_op(node);
1553
1554         assert (! mode_is_float(get_irn_mode(node)));
1555         return gen_unop(env, node, op, new_rd_ia32_Not);
1556 }
1557
1558
1559
1560 /**
1561  * Transforms an Abs node.
1562  *
1563  * @param env   The transformation environment
1564  * @return The created ia32 Abs node
1565  */
1566 static ir_node *gen_Abs(ia32_transform_env_t *env, ir_node *node) {
1567         ir_node  *res, *p_eax, *p_edx;
1568         ir_graph *irg      = env->irg;
1569         dbg_info *dbgi      = get_irn_dbg_info(node);
1570         ir_node  *block    = transform_node(env, get_nodes_block(node));
1571         ir_mode  *mode     = get_irn_mode(node);
1572         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
1573         ir_node  *noreg_fp = ia32_new_NoReg_fp(env->cg);
1574         ir_node  *nomem    = new_NoMem();
1575         ir_node  *op       = get_Abs_op(node);
1576         ir_node  *new_op   = transform_node(env, op);
1577         int       size;
1578         ir_entity *ent;
1579
1580         if (mode_is_float(mode)) {
1581                 FP_USED(env->cg);
1582                 if (USE_SSE2(env->cg)) {
1583                         res = new_rd_ia32_xAnd(dbgi,irg, block, noreg_gp, noreg_gp, new_op, noreg_fp, nomem);
1584
1585                         size = get_mode_size_bits(mode);
1586                         ent  = ia32_gen_fp_known_const(size == 32 ? ia32_SABS : ia32_DABS);
1587
1588                         set_ia32_am_sc(res, ent);
1589
1590                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1591
1592                         set_ia32_op_type(res, ia32_AddrModeS);
1593                         set_ia32_ls_mode(res, mode);
1594                 }
1595                 else {
1596                         res = new_rd_ia32_vfabs(dbgi, irg, block, new_op);
1597                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1598                 }
1599         }
1600         else {
1601                 res   = new_rd_ia32_Cltd(dbgi, irg, block, new_op);
1602                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1603
1604                 p_eax = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
1605                 p_edx = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
1606
1607                 res   = new_rd_ia32_Xor(dbgi, irg, block, noreg_gp, noreg_gp, p_eax, p_edx, nomem);
1608                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1609
1610                 res   = new_rd_ia32_Sub(dbgi, irg, block, noreg_gp, noreg_gp, res, p_edx, nomem);
1611                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1612         }
1613
1614         return res;
1615 }
1616
1617
1618
1619 /**
1620  * Transforms a Load.
1621  *
1622  * @param env   The transformation environment
1623  * @return the created ia32 Load node
1624  */
1625 static ir_node *gen_Load(ia32_transform_env_t *env, ir_node *node) {
1626         ir_graph *irg  = env->irg;
1627         dbg_info *dbgi  = get_irn_dbg_info(node);
1628         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
1629         ir_mode *mode  = get_Load_mode(node);
1630         ir_node *block = transform_node(env, get_nodes_block(node));
1631         ir_node *ptr   = get_Load_ptr(node);
1632         ir_node *new_ptr = transform_node(env, ptr);
1633         ir_node *lptr  = new_ptr;
1634         ir_node *mem   = get_Load_mem(node);
1635         ir_node *new_mem = transform_node(env, mem);
1636         int     is_imm = 0;
1637         ir_node *new_op;
1638         ia32_am_flavour_t am_flav = ia32_am_B;
1639         ir_node *projs[pn_Load_max];
1640
1641         ia32_collect_Projs(node, projs, pn_Load_max);
1642
1643         /*
1644                 check for special case: the loaded value might not be used (optimized, volatile, ...)
1645                 we add a Proj + Keep for volatile loads and ignore all other cases
1646         */
1647         if (! be_get_Proj_for_pn(node, pn_Load_res) && get_Load_volatility(node) == volatility_is_volatile) {
1648                 /* add a result proj and a Keep to produce a pseudo use */
1649                 ir_node *proj = new_r_Proj(irg, block, node, mode_Iu, pn_ia32_Load_res);
1650                 be_new_Keep(arch_get_irn_reg_class(env->cg->arch_env, proj, -1), irg, block, 1, &proj);
1651         }
1652
1653         /* address might be a constant (symconst or absolute address) */
1654         if (is_ia32_Const(new_ptr)) {
1655                 lptr   = noreg;
1656                 is_imm = 1;
1657         }
1658
1659         if (mode_is_float(mode)) {
1660                 FP_USED(env->cg);
1661                 if (USE_SSE2(env->cg)) {
1662                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, lptr, noreg, new_mem);
1663                 } else {
1664                         new_op = new_rd_ia32_vfld(dbgi, irg, block, lptr, noreg, new_mem);
1665                 }
1666         } else {
1667                 new_op = new_rd_ia32_Load(dbgi, irg, block, lptr, noreg, new_mem);
1668         }
1669
1670         /* base is a constant address */
1671         if (is_imm) {
1672                 if (get_ia32_immop_type(new_ptr) == ia32_ImmSymConst) {
1673                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_ptr));
1674                         am_flav = ia32_am_N;
1675                 } else {
1676                         tarval *tv = get_ia32_Immop_tarval(new_ptr);
1677                         long offs = get_tarval_long(tv);
1678
1679                         add_ia32_am_offs_int(new_op, offs);
1680                         am_flav = ia32_am_O;
1681                 }
1682         }
1683
1684         set_ia32_am_support(new_op, ia32_am_Source);
1685         set_ia32_op_type(new_op, ia32_AddrModeS);
1686         set_ia32_am_flavour(new_op, am_flav);
1687         set_ia32_ls_mode(new_op, mode);
1688
1689         /* make sure we are scheduled behind the intial IncSP/Barrier
1690          * to avoid spills being placed before it
1691          */
1692         if(block == get_irg_start_block(irg)) {
1693                 add_irn_dep(new_op, get_irg_frame(irg));
1694         }
1695
1696         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1697
1698         return new_op;
1699 }
1700
1701
1702
1703 /**
1704  * Transforms a Store.
1705  *
1706  * @param env   The transformation environment
1707  * @return the created ia32 Store node
1708  */
1709 static ir_node *gen_Store(ia32_transform_env_t *env, ir_node *node) {
1710         ir_graph *irg    = env->irg;
1711         dbg_info *dbgi    = get_irn_dbg_info(node);
1712         ir_node *block   = transform_node(env, get_nodes_block(node));
1713         ir_node *noreg   = ia32_new_NoReg_gp(env->cg);
1714         ir_node *ptr     = get_Store_ptr(node);
1715         ir_node *new_ptr = transform_node(env, ptr);
1716         ir_node *sptr    = new_ptr;
1717         ir_node *val     = get_Store_value(node);
1718         ir_node *new_val = transform_node(env, val);
1719         ir_node *mem     = get_Store_mem(node);
1720         ir_node *new_mem = transform_node(env, mem);
1721         ir_mode *mode    = get_irn_mode(val);
1722         ir_node *sval    = new_val;
1723         int      is_imm  = 0;
1724         ir_node *new_op;
1725         ia32_am_flavour_t am_flav = ia32_am_B;
1726
1727         if (is_ia32_Const(new_val)) {
1728                 assert(!mode_is_float(mode));
1729                 sval = noreg;
1730         }
1731
1732         /* address might be a constant (symconst or absolute address) */
1733         if (is_ia32_Const(new_ptr)) {
1734                 sptr   = noreg;
1735                 is_imm = 1;
1736         }
1737
1738         if (mode_is_float(mode)) {
1739                 FP_USED(env->cg);
1740                 if (USE_SSE2(env->cg)) {
1741                         new_op = new_rd_ia32_xStore(dbgi, irg, block, sptr, noreg, sval, new_mem);
1742                 } else {
1743                         new_op = new_rd_ia32_vfst(dbgi, irg, block, sptr, noreg, sval, new_mem);
1744                 }
1745         } else if (get_mode_size_bits(mode) == 8) {
1746                 new_op = new_rd_ia32_Store8Bit(dbgi, irg, block, sptr, noreg, sval, new_mem);
1747         } else {
1748                 new_op = new_rd_ia32_Store(dbgi, irg, block, sptr, noreg, sval, new_mem);
1749         }
1750
1751         /* stored const is an immediate value */
1752         if (is_ia32_Const(new_val)) {
1753                 assert(!mode_is_float(mode));
1754                 copy_ia32_Immop_attr(new_op, new_val);
1755         }
1756
1757         /* base is an constant address */
1758         if (is_imm) {
1759                 if (get_ia32_immop_type(new_ptr) == ia32_ImmSymConst) {
1760                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_ptr));
1761                         am_flav = ia32_am_N;
1762                 } else {
1763                         tarval *tv = get_ia32_Immop_tarval(new_ptr);
1764                         long offs = get_tarval_long(tv);
1765
1766                         add_ia32_am_offs_int(new_op, offs);
1767                         am_flav = ia32_am_O;
1768                 }
1769         }
1770
1771         set_ia32_am_support(new_op, ia32_am_Dest);
1772         set_ia32_op_type(new_op, ia32_AddrModeD);
1773         set_ia32_am_flavour(new_op, am_flav);
1774         set_ia32_ls_mode(new_op, mode);
1775
1776         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1777
1778         return new_op;
1779 }
1780
1781
1782
1783 /**
1784  * Transforms a Cond -> Proj[b] -> Cmp into a CondJmp, CondJmp_i or TestJmp
1785  *
1786  * @param env   The transformation environment
1787  * @return The transformed node.
1788  */
1789 static ir_node *gen_Cond(ia32_transform_env_t *env, ir_node *node) {
1790         ir_graph *irg      = env->irg;
1791         dbg_info *dbgi      = get_irn_dbg_info(node);
1792         ir_node  *block    = transform_node(env, get_nodes_block(node));
1793         ir_node  *sel      = get_Cond_selector(node);
1794         ir_mode  *sel_mode = get_irn_mode(sel);
1795         ir_node  *res      = NULL;
1796         ir_node  *noreg    = ia32_new_NoReg_gp(env->cg);
1797         ir_node  *cnst, *expr;
1798
1799         if (is_Proj(sel) && sel_mode == mode_b) {
1800                 ir_node *nomem = new_NoMem();
1801                 ir_node *pred = get_Proj_pred(sel);
1802                 ir_node *cmp_a = get_Cmp_left(pred);
1803                 ir_node *new_cmp_a = transform_node(env, cmp_a);
1804                 ir_node *cmp_b = get_Cmp_right(pred);
1805                 ir_node *new_cmp_b = transform_node(env, cmp_b);
1806                 ir_mode *cmp_mode = get_irn_mode(cmp_a);
1807
1808                 int pnc = get_Proj_proj(sel);
1809                 if(mode_is_float(cmp_mode) || !mode_is_signed(cmp_mode)) {
1810                         pnc |= ia32_pn_Cmp_Unsigned;
1811                 }
1812
1813                 /* check if we can use a CondJmp with immediate */
1814                 cnst = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(new_cmp_a, new_cmp_b) : NULL;
1815                 expr = get_expr_op(new_cmp_a, new_cmp_b);
1816
1817                 if (cnst != NULL && expr != NULL) {
1818                         /* immop has to be the right operand, we might need to flip pnc */
1819                         if(cnst != new_cmp_b) {
1820                                 pnc = get_inversed_pnc(pnc);
1821                         }
1822
1823                         if ((pnc == pn_Cmp_Eq || pnc == pn_Cmp_Lg) && mode_needs_gp_reg(get_irn_mode(expr))) {
1824                                 if (get_ia32_immop_type(cnst) == ia32_ImmConst &&
1825                                         classify_tarval(get_ia32_Immop_tarval(cnst)) == TV_CLASSIFY_NULL)
1826                                 {
1827                                         /* a Cmp A =/!= 0 */
1828                                         ir_node    *op1  = expr;
1829                                         ir_node    *op2  = expr;
1830                                         int is_and = 0;
1831
1832                                         /* check, if expr is an only once used And operation */
1833                                         if (is_ia32_And(expr) && get_irn_n_edges(expr)) {
1834                                                 op1 = get_irn_n(expr, 2);
1835                                                 op2 = get_irn_n(expr, 3);
1836
1837                                                 is_and = (is_ia32_ImmConst(expr) || is_ia32_ImmSymConst(expr));
1838                                         }
1839                                         res = new_rd_ia32_TestJmp(dbgi, irg, block, op1, op2);
1840                                         set_ia32_pncode(res, pnc);
1841
1842                                         if (is_and) {
1843                                                 copy_ia32_Immop_attr(res, expr);
1844                                         }
1845
1846                                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1847                                         return res;
1848                                 }
1849                         }
1850
1851                         if (mode_is_float(cmp_mode)) {
1852                                 FP_USED(env->cg);
1853                                 if (USE_SSE2(env->cg)) {
1854                                         res = new_rd_ia32_xCondJmp(dbgi, irg, block, noreg, noreg, expr, noreg, nomem);
1855                                         set_ia32_ls_mode(res, cmp_mode);
1856                                 } else {
1857                                         assert(0);
1858                                 }
1859                         }
1860                         else {
1861                                 res = new_rd_ia32_CondJmp(dbgi, irg, block, noreg, noreg, expr, noreg, nomem);
1862                         }
1863                         copy_ia32_Immop_attr(res, cnst);
1864                 }
1865                 else {
1866                         ir_mode *cmp_mode = get_irn_mode(cmp_a);
1867
1868                         if (mode_is_float(cmp_mode)) {
1869                                 FP_USED(env->cg);
1870                                 if (USE_SSE2(env->cg)) {
1871                                         res = new_rd_ia32_xCondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1872                                         set_ia32_ls_mode(res, cmp_mode);
1873                                 } else {
1874                                         ir_node *proj_eax;
1875                                         res = new_rd_ia32_vfCondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1876                                         proj_eax = new_r_Proj(irg, block, res, mode_Iu, pn_ia32_vfCondJmp_temp_reg_eax);
1877                                         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, &proj_eax);
1878                                 }
1879                         }
1880                         else {
1881                                 res = new_rd_ia32_CondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1882                                 set_ia32_commutative(res);
1883                         }
1884                 }
1885
1886                 set_ia32_pncode(res, pnc);
1887                 // Matze: disabled for now, because the default collect_spills_walker
1888                 // is not able to detect the mode of the spilled value
1889                 // moreover, the lea optimize phase freely exchanges left/right
1890                 // without updating the pnc
1891                 //set_ia32_am_support(res, ia32_am_Source);
1892         }
1893         else {
1894                 /* determine the smallest switch case value */
1895                 int switch_min = INT_MAX;
1896                 const ir_edge_t *edge;
1897                 ir_node *new_sel = transform_node(env, sel);
1898
1899                 foreach_out_edge(node, edge) {
1900                         int pn = get_Proj_proj(get_edge_src_irn(edge));
1901                         switch_min = pn < switch_min ? pn : switch_min;
1902                 }
1903
1904                 if (switch_min) {
1905                         /* if smallest switch case is not 0 we need an additional sub */
1906                         res = new_rd_ia32_Lea(dbgi, irg, block, new_sel, noreg);
1907                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1908                         add_ia32_am_offs_int(res, -switch_min);
1909                         set_ia32_am_flavour(res, ia32_am_OB);
1910                         set_ia32_am_support(res, ia32_am_Source);
1911                         set_ia32_op_type(res, ia32_AddrModeS);
1912                 }
1913
1914                 res = new_rd_ia32_SwitchJmp(dbgi, irg, block, switch_min ? res : new_sel, mode_T);
1915                 set_ia32_pncode(res, get_Cond_defaultProj(node));
1916         }
1917
1918         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1919         return res;
1920 }
1921
1922
1923
1924 /**
1925  * Transforms a CopyB node.
1926  *
1927  * @param env   The transformation environment
1928  * @return The transformed node.
1929  */
1930 static ir_node *gen_CopyB(ia32_transform_env_t *env, ir_node *node) {
1931         ir_node  *res      = NULL;
1932         ir_graph *irg      = env->irg;
1933         dbg_info *dbgi      = get_irn_dbg_info(node);
1934         ir_node  *block    = transform_node(env, get_nodes_block(node));
1935         ir_node  *src      = get_CopyB_src(node);
1936         ir_node  *new_src  = transform_node(env, src);
1937         ir_node  *dst      = get_CopyB_dst(node);
1938         ir_node  *new_dst  = transform_node(env, dst);
1939         ir_node  *mem      = get_CopyB_mem(node);
1940         ir_node  *new_mem  = transform_node(env, mem);
1941         int      size      = get_type_size_bytes(get_CopyB_type(node));
1942         ir_mode  *dst_mode = get_irn_mode(dst);
1943         ir_mode  *src_mode = get_irn_mode(src);
1944         int      rem;
1945         ir_node  *in[3];
1946
1947         /* If we have to copy more than 32 bytes, we use REP MOVSx and */
1948         /* then we need the size explicitly in ECX.                    */
1949         if (size >= 32 * 4) {
1950                 rem = size & 0x3; /* size % 4 */
1951                 size >>= 2;
1952
1953                 res = new_rd_ia32_Const(dbgi, irg, block);
1954                 add_irn_dep(res, be_abi_get_start_barrier(env->cg->birg->abi));
1955                 set_ia32_Immop_tarval(res, new_tarval_from_long(size, mode_Is));
1956
1957                 res = new_rd_ia32_CopyB(dbgi, irg, block, new_dst, new_src, res, new_mem);
1958                 set_ia32_Immop_tarval(res, new_tarval_from_long(rem, mode_Is));
1959
1960                 /* ok: now attach Proj's because rep movsd will destroy esi, edi and ecx */
1961                 in[0] = new_r_Proj(irg, block, res, dst_mode, pn_ia32_CopyB_DST);
1962                 in[1] = new_r_Proj(irg, block, res, src_mode, pn_ia32_CopyB_SRC);
1963                 in[2] = new_r_Proj(irg, block, res, mode_Iu, pn_ia32_CopyB_CNT);
1964                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 3, in);
1965         }
1966         else {
1967                 res = new_rd_ia32_CopyB_i(dbgi, irg, block, new_dst, new_src, new_mem);
1968                 set_ia32_Immop_tarval(res, new_tarval_from_long(size, mode_Is));
1969
1970                 /* ok: now attach Proj's because movsd will destroy esi and edi */
1971                 in[0] = new_r_Proj(irg, block, res, dst_mode, pn_ia32_CopyB_i_DST);
1972                 in[1] = new_r_Proj(irg, block, res, src_mode, pn_ia32_CopyB_i_SRC);
1973                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 2, in);
1974         }
1975
1976         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1977
1978         return res;
1979 }
1980
1981
1982 #if 0
1983 /**
1984  * Transforms a Mux node into CMov.
1985  *
1986  * @param env   The transformation environment
1987  * @return The transformed node.
1988  */
1989 static ir_node *gen_Mux(ia32_transform_env_t *env, ir_node *node) {
1990         ir_node *new_op = new_rd_ia32_CMov(env->dbgi, env->irg, env->block, \
1991                 get_Mux_sel(node), get_Mux_false(node), get_Mux_true(node), env->mode);
1992
1993         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1994
1995         return new_op;
1996 }
1997 #endif
1998
1999 typedef ir_node *cmov_func_t(dbg_info *db, ir_graph *irg, ir_node *block,
2000                              ir_node *cmp_a, ir_node *cmp_b, ir_node *psi_true,
2001                              ir_node *psi_default);
2002
2003 /**
2004  * Transforms a Psi node into CMov.
2005  *
2006  * @param env   The transformation environment
2007  * @return The transformed node.
2008  */
2009 static ir_node *gen_Psi(ia32_transform_env_t *env, ir_node *node) {
2010         ia32_code_gen_t *cg   = env->cg;
2011         ir_graph *irg         = env->irg;
2012         dbg_info *dbgi         = get_irn_dbg_info(node);
2013         ir_mode  *mode        = get_irn_mode(node);
2014         ir_node  *block       = transform_node(env, get_nodes_block(node));
2015         ir_node  *cmp_proj    = get_Mux_sel(node);
2016         ir_node  *psi_true    = get_Psi_val(node, 0);
2017         ir_node  *psi_default = get_Psi_default(node);
2018         ir_node  *new_psi_true = transform_node(env, psi_true);
2019         ir_node  *new_psi_default = transform_node(env, psi_default);
2020         ir_node  *noreg       = ia32_new_NoReg_gp(cg);
2021         ir_node  *nomem       = new_rd_NoMem(irg);
2022         ir_node  *cmp, *cmp_a, *cmp_b, *and1, *and2, *new_op = NULL;
2023         ir_node  *new_cmp_a, *new_cmp_b;
2024         ir_mode  *cmp_mode;
2025         int      pnc;
2026
2027         assert(get_irn_mode(cmp_proj) == mode_b && "Condition for Psi must have mode_b");
2028
2029         cmp   = get_Proj_pred(cmp_proj);
2030         cmp_a = get_Cmp_left(cmp);
2031         cmp_b = get_Cmp_right(cmp);
2032         cmp_mode = get_irn_mode(cmp_a);
2033         new_cmp_a = transform_node(env, cmp_a);
2034         new_cmp_b = transform_node(env, cmp_b);
2035
2036         pnc   = get_Proj_proj(cmp_proj);
2037         if (mode_is_float(cmp_mode) || !mode_is_signed(cmp_mode)) {
2038                 pnc |= ia32_pn_Cmp_Unsigned;
2039         }
2040
2041         if (mode_is_float(mode)) {
2042                 /* floating point psi */
2043                 FP_USED(cg);
2044
2045                 /* 1st case: compare operands are float too */
2046                 if (USE_SSE2(cg)) {
2047                         /* psi(cmp(a, b), t, f) can be done as: */
2048                         /* tmp = cmp a, b                       */
2049                         /* tmp2 = t and tmp                     */
2050                         /* tmp3 = f and not tmp                 */
2051                         /* res  = tmp2 or tmp3                  */
2052
2053                         /* in case the compare operands are int, we move them into xmm register */
2054                         if (! mode_is_float(get_irn_mode(cmp_a))) {
2055                                 new_cmp_a = gen_sse_conv_int2float(cg, dbgi, irg, block, new_cmp_a, node, mode_xmm);
2056                                 new_cmp_b = gen_sse_conv_int2float(cg, dbgi, irg, block, new_cmp_b, node, mode_xmm);
2057
2058                                 pnc |= 8;  /* transform integer compare to fp compare */
2059                         }
2060
2061                         new_op = new_rd_ia32_xCmp(dbgi, irg, block, noreg, noreg, new_cmp_a, new_cmp_b, nomem);
2062                         set_ia32_pncode(new_op, pnc);
2063                         set_ia32_am_support(new_op, ia32_am_Source);
2064                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2065
2066                         and1 = new_rd_ia32_xAnd(dbgi, irg, block, noreg, noreg, new_psi_true, new_op, nomem);
2067                         set_ia32_am_support(and1, ia32_am_None);
2068                         set_ia32_commutative(and1);
2069                         SET_IA32_ORIG_NODE(and1, ia32_get_old_node_name(cg, node));
2070
2071                         and2 = new_rd_ia32_xAndNot(dbgi, irg, block, noreg, noreg, new_op, new_psi_default, nomem);
2072                         set_ia32_am_support(and2, ia32_am_None);
2073                         set_ia32_commutative(and2);
2074                         SET_IA32_ORIG_NODE(and2, ia32_get_old_node_name(cg, node));
2075
2076                         new_op = new_rd_ia32_xOr(dbgi, irg, block, noreg, noreg, and1, and2, nomem);
2077                         set_ia32_am_support(new_op, ia32_am_None);
2078                         set_ia32_commutative(new_op);
2079                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2080                 }
2081                 else {
2082                         /* x87 FPU */
2083                         new_op = new_rd_ia32_vfCMov(dbgi, irg, block, new_cmp_a, new_cmp_b, new_psi_true, new_psi_default);
2084                         set_ia32_pncode(new_op, pnc);
2085                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2086                 }
2087         }
2088         else {
2089                 /* integer psi */
2090                 construct_binop_func *set_func  = NULL;
2091                 cmov_func_t          *cmov_func = NULL;
2092
2093                 if (mode_is_float(get_irn_mode(cmp_a))) {
2094                         /* 1st case: compare operands are floats */
2095                         FP_USED(cg);
2096
2097                         if (USE_SSE2(cg)) {
2098                                 /* SSE FPU */
2099                                 set_func  = new_rd_ia32_xCmpSet;
2100                                 cmov_func = new_rd_ia32_xCmpCMov;
2101                         }
2102                         else {
2103                                 /* x87 FPU */
2104                                 set_func  = new_rd_ia32_vfCmpSet;
2105                                 cmov_func = new_rd_ia32_vfCmpCMov;
2106                         }
2107
2108                         pnc &= ~0x8; /* fp compare -> int compare */
2109                 }
2110                 else {
2111                         /* 2nd case: compare operand are integer too */
2112                         set_func  = new_rd_ia32_CmpSet;
2113                         cmov_func = new_rd_ia32_CmpCMov;
2114                 }
2115
2116                 /* check for special case first: And/Or -- Cmp with 0 -- Psi */
2117                 if (is_ia32_Const_0(new_cmp_b) && is_Proj(new_cmp_a) && (is_ia32_And(get_Proj_pred(new_cmp_a)) || is_ia32_Or(get_Proj_pred(new_cmp_a)))) {
2118                         if (is_ia32_Const_1(psi_true) && is_ia32_Const_0(psi_default)) {
2119                                 /* first case for SETcc: default is 0, set to 1 iff condition is true */
2120                                 new_op = new_rd_ia32_PsiCondSet(dbgi, irg, block, new_cmp_a);
2121                                 set_ia32_pncode(new_op, pnc);
2122                         }
2123                         else if (is_ia32_Const_0(psi_true) && is_ia32_Const_1(psi_default)) {
2124                                 /* second case for SETcc: default is 1, set to 0 iff condition is true: */
2125                                 /*                        we invert condition and set default to 0      */
2126                                 new_op = new_rd_ia32_PsiCondSet(dbgi, irg, block, new_cmp_a);
2127                                 set_ia32_pncode(new_op, get_inversed_pnc(pnc));
2128                         }
2129                         else {
2130                                 /* otherwise: use CMOVcc */
2131                                 new_op = new_rd_ia32_PsiCondCMov(dbgi, irg, block, new_cmp_a, new_psi_true, new_psi_default);
2132                                 set_ia32_pncode(new_op, pnc);
2133                         }
2134
2135                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2136                 }
2137                 else {
2138                         if (is_ia32_Const_1(psi_true) && is_ia32_Const_0(psi_default)) {
2139                                 /* first case for SETcc: default is 0, set to 1 iff condition is true */
2140                                 new_op = gen_binop(env, node, cmp_a, cmp_b, set_func);
2141                                 set_ia32_pncode(new_op, pnc);
2142                                 set_ia32_am_support(new_op, ia32_am_Source);
2143                         }
2144                         else if (is_ia32_Const_0(psi_true) && is_ia32_Const_1(psi_default)) {
2145                                 /* second case for SETcc: default is 1, set to 0 iff condition is true: */
2146                                 /*                        we invert condition and set default to 0      */
2147                                 new_op = gen_binop(env, node, cmp_a, cmp_b, set_func);
2148                                 set_ia32_pncode(new_op, get_inversed_pnc(pnc));
2149                                 set_ia32_am_support(new_op, ia32_am_Source);
2150                         }
2151                         else {
2152                                 /* otherwise: use CMOVcc */
2153                                 new_op = cmov_func(dbgi, irg, block, new_cmp_a, new_cmp_b, new_psi_true, new_psi_default);
2154                                 set_ia32_pncode(new_op, pnc);
2155                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2156                         }
2157                 }
2158         }
2159
2160         return new_op;
2161 }
2162
2163
2164 /**
2165  * Following conversion rules apply:
2166  *
2167  *  INT -> INT
2168  * ============
2169  *  1) n bit -> m bit   n > m (downscale)
2170  *     always ignored
2171  *  2) n bit -> m bit   n == m   (sign change)
2172  *     always ignored
2173  *  3) n bit -> m bit   n < m (upscale)
2174  *     a) source is signed:    movsx
2175  *     b) source is unsigned:  and with lower bits sets
2176  *
2177  *  INT -> FLOAT
2178  * ==============
2179  *  SSE(1/2) convert to float or double (cvtsi2ss/sd)
2180  *
2181  *  FLOAT -> INT
2182  * ==============
2183  *  SSE(1/2) convert from float or double to 32bit int (cvtss/sd2si)
2184  *
2185  *  FLOAT -> FLOAT
2186  * ================
2187  *  SSE(1/2) convert from float or double to double or float (cvtss/sd2sd/ss)
2188  *  x87 is mode_E internally, conversions happen only at load and store
2189  *  in non-strict semantic
2190  */
2191
2192 /**
2193  * Create a conversion from x87 state register to general purpose.
2194  */
2195 static ir_node *gen_x87_fp_to_gp(ia32_transform_env_t *env, ir_node *node) {
2196         ia32_code_gen_t *cg    = env->cg;
2197         ir_graph        *irg   = env->irg;
2198         dbg_info        *dbgi   = get_irn_dbg_info(node);
2199         ir_node         *block = transform_node(env, get_nodes_block(node));
2200         ir_node         *noreg = ia32_new_NoReg_gp(cg);
2201         ir_node         *op    = get_Conv_op(node);
2202         ir_node         *new_op = transform_node(env, op);
2203         ir_node         *fist, *load;
2204         ir_node         *trunc_mode = ia32_new_Fpu_truncate(cg);
2205
2206         /* do a fist */
2207         fist = new_rd_ia32_vfist(dbgi, irg, block,
2208                         get_irg_frame(irg), noreg, new_op, trunc_mode, new_NoMem());
2209
2210         set_ia32_use_frame(fist);
2211         set_ia32_am_support(fist, ia32_am_Dest);
2212         set_ia32_op_type(fist, ia32_AddrModeD);
2213         set_ia32_am_flavour(fist, ia32_am_B);
2214         set_ia32_ls_mode(fist, mode_Iu);
2215         SET_IA32_ORIG_NODE(fist, ia32_get_old_node_name(cg, node));
2216
2217         /* do a Load */
2218         load = new_rd_ia32_Load(dbgi, irg, block, get_irg_frame(irg), noreg, fist);
2219
2220         set_ia32_use_frame(load);
2221         set_ia32_am_support(load, ia32_am_Source);
2222         set_ia32_op_type(load, ia32_AddrModeS);
2223         set_ia32_am_flavour(load, ia32_am_B);
2224         set_ia32_ls_mode(load, mode_Iu);
2225         SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(cg, node));
2226
2227         return new_r_Proj(irg, block, load, mode_Iu, pn_ia32_Load_res);
2228 }
2229
2230 /**
2231  * Create a conversion from general purpose to x87 register
2232  */
2233 static ir_node *gen_x87_gp_to_fp(ia32_transform_env_t *env, ir_node *node, ir_mode *src_mode) {
2234 #ifndef NDEBUG
2235         ia32_code_gen_t *cg = env->cg;
2236 #endif
2237         ir_graph  *irg    = env->irg;
2238         dbg_info  *dbgi   = get_irn_dbg_info(node);
2239         ir_node   *block  = transform_node(env, get_nodes_block(node));
2240         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
2241         ir_node   *nomem  = new_NoMem();
2242         ir_node   *op     = get_Conv_op(node);
2243         ir_node   *new_op = transform_node(env, op);
2244         ir_node   *fild, *store;
2245         int       src_bits;
2246
2247         /* first convert to 32 bit if necessary */
2248         src_bits = get_mode_size_bits(src_mode);
2249         if (src_bits == 8) {
2250                 new_op = new_rd_ia32_Conv_I2I8Bit(dbgi, irg, block, noreg, noreg, new_op, nomem);
2251                 set_ia32_am_support(new_op, ia32_am_Source);
2252                 set_ia32_ls_mode(new_op, src_mode);
2253                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2254         } else if (src_bits < 32) {
2255                 new_op = new_rd_ia32_Conv_I2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2256                 set_ia32_am_support(new_op, ia32_am_Source);
2257                 set_ia32_ls_mode(new_op, src_mode);
2258                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2259         }
2260
2261         /* do a store */
2262         store = new_rd_ia32_Store(dbgi, irg, block, get_irg_frame(irg), noreg, new_op, nomem);
2263
2264         set_ia32_use_frame(store);
2265         set_ia32_am_support(store, ia32_am_Dest);
2266         set_ia32_op_type(store, ia32_AddrModeD);
2267         set_ia32_am_flavour(store, ia32_am_OB);
2268         set_ia32_ls_mode(store, mode_Iu);
2269
2270         /* do a fild */
2271         fild = new_rd_ia32_vfild(dbgi, irg, block, get_irg_frame(irg), noreg, store);
2272
2273         set_ia32_use_frame(fild);
2274         set_ia32_am_support(fild, ia32_am_Source);
2275         set_ia32_op_type(fild, ia32_AddrModeS);
2276         set_ia32_am_flavour(fild, ia32_am_OB);
2277         set_ia32_ls_mode(fild, mode_Iu);
2278
2279         return new_r_Proj(irg, block, fild, mode_vfp, pn_ia32_vfild_res);
2280 }
2281
2282 /**
2283  * Transforms a Conv node.
2284  *
2285  * @param env   The transformation environment
2286  * @return The created ia32 Conv node
2287  */
2288 static ir_node *gen_Conv(ia32_transform_env_t *env, ir_node *node) {
2289         ir_graph *irg      = env->irg;
2290         dbg_info *dbgi      = get_irn_dbg_info(node);
2291         ir_node  *op       = get_Conv_op(node);
2292         ir_mode  *src_mode = get_irn_mode(op);
2293         ir_mode  *tgt_mode = get_irn_mode(node);
2294         int      src_bits  = get_mode_size_bits(src_mode);
2295         int      tgt_bits  = get_mode_size_bits(tgt_mode);
2296         ir_node  *block    = transform_node(env, get_nodes_block(node));
2297         ir_node  *res;
2298         ir_node  *noreg    = ia32_new_NoReg_gp(env->cg);
2299         ir_node  *nomem    = new_rd_NoMem(irg);
2300         ir_node  *new_op   = transform_node(env, op);
2301
2302         if (src_mode == tgt_mode) {
2303                 if (get_Conv_strict(node)) {
2304                         if (USE_SSE2(env->cg)) {
2305                                 /* when we are in SSE mode, we can kill all strict no-op conversion */
2306                                 return new_op;
2307                         }
2308                 } else {
2309                         /* this should be optimized already, but who knows... */
2310                         DEBUG_ONLY(ir_fprintf(stderr, "Debug warning: conv %+F is pointless\n", node));
2311                         DB((dbg, LEVEL_1, "killed Conv(mode, mode) ..."));
2312                         return new_op;
2313                 }
2314         }
2315
2316         if (mode_is_float(src_mode)) {
2317                 /* we convert from float ... */
2318                 if (mode_is_float(tgt_mode)) {
2319                         /* ... to float */
2320                         if (USE_SSE2(env->cg)) {
2321                                 DB((dbg, LEVEL_1, "create Conv(float, float) ..."));
2322                                 res = new_rd_ia32_Conv_FP2FP(dbgi, irg, block, noreg, noreg, new_op, nomem);
2323                                 set_ia32_ls_mode(res, tgt_mode);
2324                         } else {
2325                                 // Matze: TODO what about strict convs?
2326                                 DEBUG_ONLY(ir_fprintf(stderr, "Debug warning: strict conv %+F ignored yet\n", node));
2327                                 DB((dbg, LEVEL_1, "killed Conv(float, float) ..."));
2328                                 return new_op;
2329                         }
2330                 } else {
2331                         /* ... to int */
2332                         DB((dbg, LEVEL_1, "create Conv(float, int) ..."));
2333                         if (USE_SSE2(env->cg)) {
2334                                 res = new_rd_ia32_Conv_FP2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2335                                 set_ia32_ls_mode(res, src_mode);
2336                         } else {
2337                                 return gen_x87_fp_to_gp(env, node);
2338                         }
2339                 }
2340         } else {
2341                 /* we convert from int ... */
2342                 if (mode_is_float(tgt_mode)) {
2343                         FP_USED(env->cg);
2344                         /* ... to float */
2345                         DB((dbg, LEVEL_1, "create Conv(int, float) ..."));
2346                         if (USE_SSE2(env->cg)) {
2347                                 res = new_rd_ia32_Conv_I2FP(dbgi, irg, block, noreg, noreg, new_op, nomem);
2348                                 set_ia32_ls_mode(res, tgt_mode);
2349                                 if(src_bits == 32) {
2350                                         set_ia32_am_support(res, ia32_am_Source);
2351                                 }
2352                         } else {
2353                                 return gen_x87_gp_to_fp(env, node, src_mode);
2354                         }
2355                 } else {
2356                         /* to int */
2357                         ir_mode *smaller_mode;
2358                         int smaller_bits;
2359
2360                         if (src_bits == tgt_bits) {
2361                                 DB((dbg, LEVEL_1, "omitting unnecessary Conv(%+F, %+F) ...", src_mode, tgt_mode));
2362                                 return new_op;
2363                         }
2364
2365                         if(src_bits < tgt_bits) {
2366                                 smaller_mode = src_mode;
2367                                 smaller_bits = src_bits;
2368                         } else {
2369                                 smaller_mode = tgt_mode;
2370                                 smaller_bits = tgt_bits;
2371                         }
2372
2373                         // The following is not correct, we can't change the mode,
2374                         // maybe others are using the load too
2375                         // better move this to a separate phase!
2376 #if 0
2377                         /* ... to int */
2378                         if(is_Proj(new_op)) {
2379                                 /* load operations do already sign/zero extend, so we have
2380                                  * nothing left to do */
2381                                 ir_node *pred = get_Proj_pred(new_op);
2382                                 if(is_ia32_Load(pred)) {
2383                                         set_ia32_ls_mode(pred, smaller_mode);
2384                                         return new_op;
2385                                 }
2386                         }
2387 #endif
2388
2389                         DB((dbg, LEVEL_1, "create Conv(int, int) ...", src_mode, tgt_mode));
2390                         if (smaller_bits == 8) {
2391                                 res = new_rd_ia32_Conv_I2I8Bit(dbgi, irg, block, noreg, noreg, new_op, nomem);
2392                                 set_ia32_ls_mode(res, smaller_mode);
2393                         } else {
2394                                 res = new_rd_ia32_Conv_I2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2395                                 set_ia32_ls_mode(res, smaller_mode);
2396                         }
2397                         set_ia32_am_support(res, ia32_am_Source);
2398                 }
2399         }
2400
2401         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
2402
2403         return res;
2404 }
2405
2406
2407
2408 /********************************************
2409  *  _                          _
2410  * | |                        | |
2411  * | |__   ___ _ __   ___   __| | ___  ___
2412  * | '_ \ / _ \ '_ \ / _ \ / _` |/ _ \/ __|
2413  * | |_) |  __/ | | | (_) | (_| |  __/\__ \
2414  * |_.__/ \___|_| |_|\___/ \__,_|\___||___/
2415  *
2416  ********************************************/
2417
2418 static ir_node *gen_be_StackParam(ia32_transform_env_t *env, ir_node *node) {
2419         ir_node   *new_op = NULL;
2420         ir_graph  *irg    = env->irg;
2421         dbg_info  *dbgi    = get_irn_dbg_info(node);
2422         ir_node   *block  = transform_node(env, get_nodes_block(node));
2423         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
2424         ir_node   *nomem  = new_rd_NoMem(env->irg);
2425         ir_node   *ptr    = get_irn_n(node, 0);
2426         ir_node  *new_ptr = transform_node(env, ptr);
2427         ir_entity *ent    = arch_get_frame_entity(env->cg->arch_env, node);
2428         ir_mode   *load_mode = get_irn_mode(node);
2429         ir_mode   *proj_mode;
2430         long      pn_res;
2431
2432         if (mode_is_float(load_mode)) {
2433                 FP_USED(env->cg);
2434                 if (USE_SSE2(env->cg)) {
2435                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, nomem);
2436                         pn_res    = pn_ia32_xLoad_res;
2437                         proj_mode = mode_xmm;
2438                 } else {
2439                         new_op = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, nomem);
2440                         pn_res    = pn_ia32_vfld_res;
2441                         proj_mode = mode_vfp;
2442                 }
2443         } else {
2444                 new_op = new_rd_ia32_Load(dbgi, irg, block, new_ptr, noreg, nomem);
2445                 proj_mode = mode_Iu;
2446                 pn_res = pn_ia32_Load_res;
2447         }
2448
2449         set_ia32_frame_ent(new_op, ent);
2450         set_ia32_use_frame(new_op);
2451
2452         set_ia32_am_support(new_op, ia32_am_Source);
2453         set_ia32_op_type(new_op, ia32_AddrModeS);
2454         set_ia32_am_flavour(new_op, ia32_am_B);
2455         set_ia32_ls_mode(new_op, load_mode);
2456         set_ia32_flags(new_op, get_ia32_flags(new_op) | arch_irn_flags_rematerializable);
2457
2458         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2459
2460         return new_rd_Proj(dbgi, irg, block, new_op, proj_mode, pn_res);
2461 }
2462
2463 /**
2464  * Transforms a FrameAddr into an ia32 Add.
2465  */
2466 static ir_node *gen_be_FrameAddr(ia32_transform_env_t *env, ir_node *node) {
2467         ir_graph *irg   = env->irg;
2468         dbg_info *dbgi   = get_irn_dbg_info(node);
2469         ir_node *block  = transform_node(env, get_nodes_block(node));
2470         ir_node *op     = get_irn_n(node, 0);
2471         ir_node *new_op = transform_node(env, op);
2472         ir_node *res;
2473         ir_node *noreg  = ia32_new_NoReg_gp(env->cg);
2474
2475         res = new_rd_ia32_Lea(dbgi, irg, block, new_op, noreg);
2476         set_ia32_frame_ent(res, arch_get_frame_entity(env->cg->arch_env, node));
2477         set_ia32_am_support(res, ia32_am_Full);
2478         set_ia32_use_frame(res);
2479         set_ia32_am_flavour(res, ia32_am_OB);
2480
2481         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
2482
2483         return res;
2484 }
2485
2486 /**
2487  * Transforms a FrameLoad into an ia32 Load.
2488  */
2489 static ir_node *gen_be_FrameLoad(ia32_transform_env_t *env, ir_node *node) {
2490         ir_node   *new_op  = NULL;
2491         ir_graph  *irg     = env->irg;
2492         dbg_info  *dbgi     = get_irn_dbg_info(node);
2493         ir_node   *block   = transform_node(env, get_nodes_block(node));
2494         ir_node   *noreg   = ia32_new_NoReg_gp(env->cg);
2495         ir_node   *mem     = get_irn_n(node, 0);
2496         ir_node   *ptr     = get_irn_n(node, 1);
2497         ir_node   *new_mem = transform_node(env, mem);
2498         ir_node   *new_ptr = transform_node(env, ptr);
2499         ir_entity *ent     = arch_get_frame_entity(env->cg->arch_env, node);
2500         ir_mode   *mode    = get_type_mode(get_entity_type(ent));
2501         ir_node   *projs[pn_Load_max];
2502
2503         ia32_collect_Projs(node, projs, pn_Load_max);
2504
2505         if (mode_is_float(mode)) {
2506                 FP_USED(env->cg);
2507                 if (USE_SSE2(env->cg)) {
2508                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, new_mem);
2509                 }
2510                 else {
2511                         new_op = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, new_mem);
2512                 }
2513         }
2514         else {
2515                 new_op = new_rd_ia32_Load(dbgi, irg, block, new_ptr, noreg, new_mem);
2516         }
2517
2518         set_ia32_frame_ent(new_op, ent);
2519         set_ia32_use_frame(new_op);
2520
2521         set_ia32_am_support(new_op, ia32_am_Source);
2522         set_ia32_op_type(new_op, ia32_AddrModeS);
2523         set_ia32_am_flavour(new_op, ia32_am_B);
2524         set_ia32_ls_mode(new_op, mode);
2525
2526         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2527
2528         return new_op;
2529 }
2530
2531
2532 /**
2533  * Transforms a FrameStore into an ia32 Store.
2534  */
2535 static ir_node *gen_be_FrameStore(ia32_transform_env_t *env, ir_node *node) {
2536         ir_node   *new_op  = NULL;
2537         ir_graph  *irg     = env->irg;
2538         dbg_info  *dbgi     = get_irn_dbg_info(node);
2539         ir_node   *block   = transform_node(env, get_nodes_block(node));
2540         ir_node   *noreg   = ia32_new_NoReg_gp(env->cg);
2541         ir_node   *mem     = get_irn_n(node, 0);
2542         ir_node   *ptr     = get_irn_n(node, 1);
2543         ir_node   *val     = get_irn_n(node, 2);
2544         ir_node   *new_mem = transform_node(env, mem);
2545         ir_node   *new_ptr = transform_node(env, ptr);
2546         ir_node   *new_val = transform_node(env, val);
2547         ir_entity *ent     = arch_get_frame_entity(env->cg->arch_env, node);
2548         ir_mode   *mode    = get_irn_mode(val);
2549
2550         if (mode_is_float(mode)) {
2551                 FP_USED(env->cg);
2552                 if (USE_SSE2(env->cg)) {
2553                         new_op = new_rd_ia32_xStore(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2554                 } else {
2555                         new_op = new_rd_ia32_vfst(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2556                 }
2557         } else if (get_mode_size_bits(mode) == 8) {
2558                 new_op = new_rd_ia32_Store8Bit(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2559         } else {
2560                 new_op = new_rd_ia32_Store(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2561         }
2562
2563         set_ia32_frame_ent(new_op, ent);
2564         set_ia32_use_frame(new_op);
2565
2566         set_ia32_am_support(new_op, ia32_am_Dest);
2567         set_ia32_op_type(new_op, ia32_AddrModeD);
2568         set_ia32_am_flavour(new_op, ia32_am_B);
2569         set_ia32_ls_mode(new_op, mode);
2570
2571         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2572
2573         return new_op;
2574 }
2575
2576 /**
2577  * In case SSE is used we need to copy the result from XMM0 to FPU TOS before return.
2578  */
2579 static ir_node *gen_be_Return(ia32_transform_env_t *env, ir_node *node) {
2580         ir_graph  *irg     = env->irg;
2581         dbg_info  *dbgi;
2582         ir_node   *block;
2583         ir_node   *ret_val = get_irn_n(node, be_pos_Return_val);
2584         ir_node   *ret_mem = get_irn_n(node, be_pos_Return_mem);
2585         ir_entity *ent     = get_irg_entity(irg);
2586         ir_type   *tp      = get_entity_type(ent);
2587         ir_type   *res_type;
2588         ir_mode   *mode;
2589         ir_node *frame, *sse_store, *fld, *mproj, *barrier;
2590         ir_node *new_barrier, *new_ret_val, *new_ret_mem;
2591         ir_node  **in;
2592         int pn_ret_val, pn_ret_mem, arity, i;
2593
2594         assert(ret_val != NULL);
2595         if (be_Return_get_n_rets(node) < 1 || ! USE_SSE2(env->cg)) {
2596                 return duplicate_node(env, node);
2597         }
2598
2599         res_type = get_method_res_type(tp, 0);
2600
2601         if (!is_Primitive_type(res_type)) {
2602                 return duplicate_node(env, node);
2603         }
2604
2605         mode = get_type_mode(res_type);
2606         if (!mode_is_float(mode)) {
2607                 return duplicate_node(env, node);
2608         }
2609
2610         assert(get_method_n_ress(tp) == 1);
2611
2612         pn_ret_val = get_Proj_proj(ret_val);
2613         pn_ret_mem = get_Proj_proj(ret_mem);
2614
2615         /* get the Barrier */
2616         barrier = get_Proj_pred(ret_val);
2617
2618         /* get result input of the Barrier */
2619         ret_val = get_irn_n(barrier, pn_ret_val);
2620         new_ret_val = transform_node(env, ret_val);
2621
2622         /* get memory input of the Barrier */
2623         ret_mem = get_irn_n(barrier, pn_ret_mem);
2624         new_ret_mem = transform_node(env, ret_mem);
2625
2626         frame = get_irg_frame(irg);
2627
2628         dbgi = get_irn_dbg_info(barrier);
2629         block = transform_node(env, get_nodes_block(barrier));
2630
2631         /* store xmm0 onto stack */
2632         sse_store = new_rd_ia32_xStoreSimple(dbgi, irg, block, frame, new_ret_val, new_ret_mem);
2633         set_ia32_ls_mode(sse_store, mode);
2634         set_ia32_op_type(sse_store, ia32_AddrModeD);
2635         set_ia32_use_frame(sse_store);
2636         set_ia32_am_flavour(sse_store, ia32_am_B);
2637         set_ia32_am_support(sse_store, ia32_am_Dest);
2638
2639         /* load into st0 */
2640         fld = new_rd_ia32_SetST0(dbgi, irg, block, frame, sse_store);
2641         set_ia32_ls_mode(fld, mode);
2642         set_ia32_op_type(fld, ia32_AddrModeS);
2643         set_ia32_use_frame(fld);
2644         set_ia32_am_flavour(fld, ia32_am_B);
2645         set_ia32_am_support(fld, ia32_am_Source);
2646
2647         mproj = new_r_Proj(irg, block, fld, mode_M, pn_ia32_SetST0_M);
2648         fld   = new_r_Proj(irg, block, fld, mode_vfp, pn_ia32_SetST0_res);
2649         arch_set_irn_register(env->cg->arch_env, fld, &ia32_vfp_regs[REG_VF0]);
2650
2651         /* create a new barrier */
2652         arity = get_irn_arity(barrier);
2653         in = alloca(arity * sizeof(in[0]));
2654         for(i = 0; i < arity; ++i) {
2655                 ir_node *new_in;
2656                 if(i == pn_ret_val) {
2657                         new_in = fld;
2658                 } else if(i == pn_ret_mem) {
2659                         new_in = mproj;
2660                 } else {
2661                         ir_node *in = get_irn_n(barrier, i);
2662                         new_in = transform_node(env, in);
2663                 }
2664                 in[i] = new_in;
2665         }
2666
2667         new_barrier = new_ir_node(dbgi, irg, block,
2668                                   get_irn_op(barrier), get_irn_mode(barrier),
2669                                   arity, in);
2670         copy_node_attr(barrier, new_barrier);
2671         duplicate_deps(env, barrier, new_barrier);
2672         set_new_node(barrier, new_barrier);
2673         mark_irn_visited(barrier);
2674
2675         /* transform normally */
2676         return duplicate_node(env, node);
2677 }
2678
2679 /**
2680  * Transform a be_AddSP into an ia32_AddSP. Eat up const sizes.
2681  */
2682 static ir_node *gen_be_AddSP(ia32_transform_env_t *env, ir_node *node) {
2683         ir_node *new_op;
2684         ir_graph *irg = env->irg;
2685         dbg_info *dbgi = get_irn_dbg_info(node);
2686         ir_node *block = transform_node(env, get_nodes_block(node));
2687         ir_node *sz = get_irn_n(node, be_pos_AddSP_size);
2688         ir_node *new_sz = transform_node(env, sz);
2689         ir_node *sp = get_irn_n(node, be_pos_AddSP_old_sp);
2690         ir_node *new_sp = transform_node(env, sp);
2691         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2692         ir_node *nomem = new_NoMem();
2693
2694         /* ia32 stack grows in reverse direction, make a SubSP */
2695         new_op = new_rd_ia32_SubSP(dbgi, irg, block, noreg, noreg, new_sp, new_sz, nomem);
2696         set_ia32_am_support(new_op, ia32_am_Source);
2697         fold_immediate(env, new_op, 2, 3);
2698
2699         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2700
2701         return new_op;
2702 }
2703
2704 /**
2705  * Transform a be_SubSP into an ia32_SubSP. Eat up const sizes.
2706  */
2707 static ir_node *gen_be_SubSP(ia32_transform_env_t *env, ir_node *node) {
2708         ir_node *new_op;
2709         ir_graph *irg = env->irg;
2710         dbg_info *dbgi = get_irn_dbg_info(node);
2711         ir_node *block = transform_node(env, get_nodes_block(node));
2712         ir_node *sz = get_irn_n(node, be_pos_SubSP_size);
2713         ir_node *new_sz = transform_node(env, sz);
2714         ir_node *sp = get_irn_n(node, be_pos_SubSP_old_sp);
2715         ir_node *new_sp = transform_node(env, sp);
2716         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2717         ir_node *nomem = new_NoMem();
2718
2719         /* ia32 stack grows in reverse direction, make an AddSP */
2720         new_op = new_rd_ia32_AddSP(dbgi, irg, block, noreg, noreg, new_sp, new_sz, nomem);
2721         set_ia32_am_support(new_op, ia32_am_Source);
2722         fold_immediate(env, new_op, 2, 3);
2723
2724         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2725
2726         return new_op;
2727 }
2728
2729 /**
2730  * This function just sets the register for the Unknown node
2731  * as this is not done during register allocation because Unknown
2732  * is an "ignore" node.
2733  */
2734 static ir_node *gen_Unknown(ia32_transform_env_t *env, ir_node *node) {
2735         ir_mode *mode = get_irn_mode(node);
2736
2737         if (mode_is_float(mode)) {
2738                 if (USE_SSE2(env->cg))
2739                         return ia32_new_Unknown_xmm(env->cg);
2740                 else
2741                         return ia32_new_Unknown_vfp(env->cg);
2742         } else if (mode_needs_gp_reg(mode)) {
2743                 return ia32_new_Unknown_gp(env->cg);
2744         } else {
2745                 assert(0 && "unsupported Unknown-Mode");
2746         }
2747
2748         return NULL;
2749 }
2750
2751 /**
2752  * Change some phi modes
2753  */
2754 static ir_node *gen_Phi(ia32_transform_env_t *env, ir_node *node) {
2755         ir_graph *irg = env->irg;
2756         dbg_info *dbgi = get_irn_dbg_info(node);
2757         ir_mode *mode = get_irn_mode(node);
2758         ir_node *block = transform_node(env, get_nodes_block(node));
2759         ir_node *phi;
2760         int i, arity;
2761
2762         if(mode_needs_gp_reg(mode)) {
2763                 // we shouldn't have any 64bit stuff around anymore
2764                 assert(get_mode_size_bits(mode) <= 32);
2765                 // all integer operations are on 32bit registers now
2766                 mode = mode_Iu;
2767         } else if(mode_is_float(mode)) {
2768                 assert(mode == mode_D || mode == mode_F);
2769                 if (USE_SSE2(env->cg)) {
2770                         mode = mode_xmm;
2771                 } else {
2772                         mode = mode_vfp;
2773                 }
2774         }
2775
2776         /* phi nodes allow loops, so we use the old arguments for now
2777          * and fix this later */
2778         phi = new_ir_node(dbgi, irg, block, op_Phi, mode, get_irn_arity(node),
2779                           get_irn_in(node) + 1);
2780         copy_node_attr(node, phi);
2781         duplicate_deps(env, node, phi);
2782
2783         set_new_node(node, phi);
2784
2785         /* put the preds in the worklist */
2786         arity = get_irn_arity(node);
2787         for(i = 0; i < arity; ++i) {
2788                 ir_node *pred = get_irn_n(node, i);
2789                 pdeq_putr(env->worklist, pred);
2790         }
2791
2792         return phi;
2793 }
2794
2795 /**********************************************************************
2796  *  _                                _                   _
2797  * | |                              | |                 | |
2798  * | | _____      _____ _ __ ___  __| |  _ __   ___   __| | ___  ___
2799  * | |/ _ \ \ /\ / / _ \ '__/ _ \/ _` | | '_ \ / _ \ / _` |/ _ \/ __|
2800  * | | (_) \ V  V /  __/ | |  __/ (_| | | | | | (_) | (_| |  __/\__ \
2801  * |_|\___/ \_/\_/ \___|_|  \___|\__,_| |_| |_|\___/ \__,_|\___||___/
2802  *
2803  **********************************************************************/
2804
2805 /* These nodes are created in intrinsic lowering (64bit -> 32bit) */
2806
2807 typedef ir_node *construct_load_func(dbg_info *db, ir_graph *irg, ir_node *block, ir_node *base, ir_node *index, \
2808                                      ir_node *mem);
2809
2810 typedef ir_node *construct_store_func(dbg_info *db, ir_graph *irg, ir_node *block, ir_node *base, ir_node *index, \
2811                                       ir_node *val, ir_node *mem);
2812
2813 /**
2814  * Transforms a lowered Load into a "real" one.
2815  */
2816 static ir_node *gen_lowered_Load(ia32_transform_env_t *env, ir_node *node, construct_load_func func, char fp_unit) {
2817         ir_graph *irg  = env->irg;
2818         dbg_info *dbgi  = get_irn_dbg_info(node);
2819         ir_node *block = transform_node(env, get_nodes_block(node));
2820         ir_mode *mode  = get_ia32_ls_mode(node);
2821         ir_node *new_op;
2822         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2823         ir_node *ptr   = get_irn_n(node, 0);
2824         ir_node *mem   = get_irn_n(node, 1);
2825         ir_node *new_ptr = transform_node(env, ptr);
2826         ir_node *new_mem = transform_node(env, mem);
2827
2828         /*
2829                 Could be that we have SSE2 unit, but due to 64Bit Div/Conv
2830                 lowering we have x87 nodes, so we need to enforce simulation.
2831         */
2832         if (mode_is_float(mode)) {
2833                 FP_USED(env->cg);
2834                 if (fp_unit == fp_x87)
2835                         FORCE_x87(env->cg);
2836         }
2837
2838         new_op  = func(dbgi, irg, block, new_ptr, noreg, new_mem);
2839
2840         set_ia32_am_support(new_op, ia32_am_Source);
2841         set_ia32_op_type(new_op, ia32_AddrModeS);
2842         set_ia32_am_flavour(new_op, ia32_am_OB);
2843         set_ia32_am_offs_int(new_op, 0);
2844         set_ia32_am_scale(new_op, 1);
2845         set_ia32_am_sc(new_op, get_ia32_am_sc(node));
2846         if(is_ia32_am_sc_sign(node))
2847                 set_ia32_am_sc_sign(new_op);
2848         set_ia32_ls_mode(new_op, get_ia32_ls_mode(node));
2849         if(is_ia32_use_frame(node)) {
2850                 set_ia32_frame_ent(new_op, get_ia32_frame_ent(node));
2851                 set_ia32_use_frame(new_op);
2852         }
2853
2854         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2855
2856         return new_op;
2857 }
2858
2859 /**
2860 * Transforms a lowered Store into a "real" one.
2861 */
2862 static ir_node *gen_lowered_Store(ia32_transform_env_t *env, ir_node *node, construct_store_func func, char fp_unit) {
2863         ir_graph *irg  = env->irg;
2864         dbg_info *dbgi  = get_irn_dbg_info(node);
2865         ir_node *block = transform_node(env, get_nodes_block(node));
2866         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2867         ir_mode *mode  = get_ia32_ls_mode(node);
2868         ir_node *new_op;
2869         long am_offs;
2870         ia32_am_flavour_t am_flav = ia32_B;
2871         ir_node *ptr = get_irn_n(node, 0);
2872         ir_node *val = get_irn_n(node, 1);
2873         ir_node *mem = get_irn_n(node, 2);
2874         ir_node *new_ptr = transform_node(env, ptr);
2875         ir_node *new_val = transform_node(env, val);
2876         ir_node *new_mem = transform_node(env, mem);
2877
2878         /*
2879                 Could be that we have SSE2 unit, but due to 64Bit Div/Conv
2880                 lowering we have x87 nodes, so we need to enforce simulation.
2881         */
2882         if (mode_is_float(mode)) {
2883                 FP_USED(env->cg);
2884                 if (fp_unit == fp_x87)
2885                         FORCE_x87(env->cg);
2886         }
2887
2888         new_op = func(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2889
2890         if ((am_offs = get_ia32_am_offs_int(node)) != 0) {
2891                 am_flav |= ia32_O;
2892                 add_ia32_am_offs_int(new_op, am_offs);
2893         }
2894
2895         set_ia32_am_support(new_op, ia32_am_Dest);
2896         set_ia32_op_type(new_op, ia32_AddrModeD);
2897         set_ia32_am_flavour(new_op, am_flav);
2898         set_ia32_ls_mode(new_op, mode);
2899         set_ia32_frame_ent(new_op, get_ia32_frame_ent(node));
2900         set_ia32_use_frame(new_op);
2901
2902         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2903
2904         return new_op;
2905 }
2906
2907
2908 /**
2909  * Transforms an ia32_l_XXX into a "real" XXX node
2910  *
2911  * @param env   The transformation environment
2912  * @return the created ia32 XXX node
2913  */
2914 #define GEN_LOWERED_OP(op)                                                     \
2915         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2916                 ir_mode *mode = get_irn_mode(node);                                    \
2917                 if (mode_is_float(mode))                                               \
2918                         FP_USED(env->cg);                                                  \
2919                 return gen_binop(env, node, get_binop_left(node),                      \
2920                                  get_binop_right(node), new_rd_ia32_##op);             \
2921         }
2922
2923 #define GEN_LOWERED_x87_OP(op)                                                 \
2924         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2925                 ir_node *new_op;                                                       \
2926                 FORCE_x87(env->cg);                                                    \
2927                 new_op = gen_binop_float(env, node, get_binop_left(node),              \
2928                                          get_binop_right(node), new_rd_ia32_##op);     \
2929                 return new_op;                                                         \
2930         }
2931
2932 #define GEN_LOWERED_UNOP(op)                                                   \
2933         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2934                 return gen_unop(env, node, get_unop_op(node), new_rd_ia32_##op);       \
2935         }
2936
2937 #define GEN_LOWERED_SHIFT_OP(op)                                               \
2938         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2939                 return gen_shift_binop(env, node, get_binop_left(node),                \
2940                                        get_binop_right(node), new_rd_ia32_##op);       \
2941         }
2942
2943 #define GEN_LOWERED_LOAD(op, fp_unit)                                          \
2944         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2945                 return gen_lowered_Load(env, node, new_rd_ia32_##op, fp_unit);         \
2946         }
2947
2948 #define GEN_LOWERED_STORE(op, fp_unit)                                         \
2949         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2950                 return gen_lowered_Store(env, node, new_rd_ia32_##op, fp_unit);        \
2951         }
2952
2953 GEN_LOWERED_OP(Adc)
2954 GEN_LOWERED_OP(Add)
2955 GEN_LOWERED_OP(Sbb)
2956 GEN_LOWERED_OP(Sub)
2957 GEN_LOWERED_OP(IMul)
2958 GEN_LOWERED_OP(Xor)
2959 GEN_LOWERED_x87_OP(vfprem)
2960 GEN_LOWERED_x87_OP(vfmul)
2961 GEN_LOWERED_x87_OP(vfsub)
2962
2963 GEN_LOWERED_UNOP(Neg)
2964
2965 GEN_LOWERED_LOAD(vfild, fp_x87)
2966 GEN_LOWERED_LOAD(Load, fp_none)
2967 /*GEN_LOWERED_STORE(vfist, fp_x87)
2968  *TODO
2969  */
2970 GEN_LOWERED_STORE(Store, fp_none)
2971
2972 static ir_node *gen_ia32_l_vfdiv(ia32_transform_env_t *env, ir_node *node) {
2973         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2974         ir_graph *irg = env->irg;
2975         dbg_info *dbgi = get_irn_dbg_info(node);
2976         ir_node *block = transform_node(env, get_nodes_block(node));
2977         ir_node *left = get_binop_left(node);
2978         ir_node *right = get_binop_right(node);
2979         ir_node *new_left = transform_node(env, left);
2980         ir_node *new_right = transform_node(env, right);
2981         ir_node *vfdiv;
2982
2983         vfdiv = new_rd_ia32_vfdiv(dbgi, irg, block, noreg, noreg, new_left, new_right, new_NoMem());
2984         clear_ia32_commutative(vfdiv);
2985         set_ia32_am_support(vfdiv, ia32_am_Source);
2986         fold_immediate(env, vfdiv, 2, 3);
2987
2988         SET_IA32_ORIG_NODE(vfdiv, ia32_get_old_node_name(env->cg, node));
2989
2990         FORCE_x87(env->cg);
2991
2992         return vfdiv;
2993 }
2994
2995 /**
2996  * Transforms a l_MulS into a "real" MulS node.
2997  *
2998  * @param env   The transformation environment
2999  * @return the created ia32 Mul node
3000  */
3001 static ir_node *gen_ia32_l_Mul(ia32_transform_env_t *env, ir_node *node) {
3002         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
3003         ir_graph *irg = env->irg;
3004         dbg_info *dbgi = get_irn_dbg_info(node);
3005         ir_node *block = transform_node(env, get_nodes_block(node));
3006         ir_node *left = get_binop_left(node);
3007         ir_node *right = get_binop_right(node);
3008         ir_node *new_left = transform_node(env, left);
3009         ir_node *new_right = transform_node(env, right);
3010         ir_node *in[2];
3011
3012         /* l_Mul is already a mode_T node, so we create the Mul in the normal way   */
3013         /* and then skip the result Proj, because all needed Projs are already there. */
3014         ir_node *muls = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_left, new_right, new_NoMem());
3015         clear_ia32_commutative(muls);
3016         set_ia32_am_support(muls, ia32_am_Source);
3017         fold_immediate(env, muls, 2, 3);
3018
3019         /* check if EAX and EDX proj exist, add missing one */
3020         in[0] = new_rd_Proj(dbgi, irg, block, muls, mode_Iu, pn_EAX);
3021         in[1] = new_rd_Proj(dbgi, irg, block, muls, mode_Iu, pn_EDX);
3022         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 2, in);
3023
3024         SET_IA32_ORIG_NODE(muls, ia32_get_old_node_name(env->cg, node));
3025
3026         return muls;
3027 }
3028
3029 GEN_LOWERED_SHIFT_OP(Shl)
3030 GEN_LOWERED_SHIFT_OP(Shr)
3031 GEN_LOWERED_SHIFT_OP(Sar)
3032
3033 /**
3034  * Transforms a l_ShlD/l_ShrD into a ShlD/ShrD. Those nodes have 3 data inputs:
3035  * op1 - target to be shifted
3036  * op2 - contains bits to be shifted into target
3037  * op3 - shift count
3038  * Only op3 can be an immediate.
3039  */
3040 static ir_node *gen_lowered_64bit_shifts(ia32_transform_env_t *env, ir_node *node,
3041                                          ir_node *op1, ir_node *op2,
3042                                          ir_node *count) {
3043         ir_node   *new_op = NULL;
3044         ir_graph  *irg    = env->irg;
3045         dbg_info  *dbgi    = get_irn_dbg_info(node);
3046         ir_node   *block  = transform_node(env, get_nodes_block(node));
3047         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
3048         ir_node   *nomem  = new_NoMem();
3049         ir_node   *imm_op;
3050         ir_node   *new_op1 = transform_node(env, op1);
3051         ir_node   *new_op2 = transform_node(env, op2);
3052         ir_node   *new_count = transform_node(env, count);
3053         tarval    *tv;
3054
3055         assert(! mode_is_float(get_irn_mode(node)) && "Shift/Rotate with float not supported");
3056
3057         /* Check if immediate optimization is on and */
3058         /* if it's an operation with immediate.      */
3059         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_count) : NULL;
3060
3061         /* Limit imm_op within range imm8 */
3062         if (imm_op) {
3063                 tv = get_ia32_Immop_tarval(imm_op);
3064
3065                 if (tv) {
3066                         tv = tarval_mod(tv, new_tarval_from_long(32, get_tarval_mode(tv)));
3067                         set_ia32_Immop_tarval(imm_op, tv);
3068                 }
3069                 else {
3070                         imm_op = NULL;
3071                 }
3072         }
3073
3074         /* integer operations */
3075         if (imm_op) {
3076                 /* This is ShiftD with const */
3077                 DB((dbg, LEVEL_1, "ShiftD with immediate ..."));
3078
3079                 if (is_ia32_l_ShlD(node))
3080                         new_op = new_rd_ia32_ShlD(dbgi, irg, block, noreg, noreg,
3081                                                   new_op1, new_op2, noreg, nomem);
3082                 else
3083                         new_op = new_rd_ia32_ShrD(dbgi, irg, block, noreg, noreg,
3084                                                   new_op1, new_op2, noreg, nomem);
3085                 copy_ia32_Immop_attr(new_op, imm_op);
3086         }
3087         else {
3088                 /* This is a normal ShiftD */
3089                 DB((dbg, LEVEL_1, "ShiftD binop ..."));
3090                 if (is_ia32_l_ShlD(node))
3091                         new_op = new_rd_ia32_ShlD(dbgi, irg, block, noreg, noreg,
3092                                                   new_op1, new_op2, new_count, nomem);
3093                 else
3094                         new_op = new_rd_ia32_ShrD(dbgi, irg, block, noreg, noreg,
3095                                                   new_op1, new_op2, new_count, nomem);
3096         }
3097
3098         /* set AM support */
3099         // Matze: node has unsupported format (6inputs)
3100         //set_ia32_am_support(new_op, ia32_am_Dest);
3101
3102         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
3103
3104         set_ia32_emit_cl(new_op);
3105
3106         return new_op;
3107 }
3108
3109 static ir_node *gen_ia32_l_ShlD(ia32_transform_env_t *env, ir_node *node) {
3110         return gen_lowered_64bit_shifts(env, node, get_irn_n(node, 0),
3111                                         get_irn_n(node, 1), get_irn_n(node, 2));
3112 }
3113
3114 static ir_node *gen_ia32_l_ShrD(ia32_transform_env_t *env, ir_node *node) {
3115         return gen_lowered_64bit_shifts(env, node, get_irn_n(node, 0),
3116                                         get_irn_n(node, 1), get_irn_n(node, 2));
3117 }
3118
3119 /**
3120  * In case SSE Unit is used, the node is transformed into a vfst + xLoad.
3121  */
3122 static ir_node *gen_ia32_l_X87toSSE(ia32_transform_env_t *env, ir_node *node) {
3123         ia32_code_gen_t *cg  = env->cg;
3124         ir_node         *res = NULL;
3125         ir_graph        *irg = env->irg;
3126         dbg_info        *dbgi = get_irn_dbg_info(node);
3127         ir_node       *block = transform_node(env, get_nodes_block(node));
3128         ir_node         *ptr = get_irn_n(node, 0);
3129         ir_node         *val = get_irn_n(node, 1);
3130         ir_node     *new_val = transform_node(env, val);
3131         ir_node         *mem = get_irn_n(node, 2);
3132         ir_node *noreg, *new_ptr, *new_mem;
3133
3134         if (USE_SSE2(cg)) {
3135                 return new_val;
3136         }
3137
3138         noreg = ia32_new_NoReg_gp(cg);
3139         new_mem = transform_node(env, mem);
3140         new_ptr = transform_node(env, ptr);
3141
3142         /* Store x87 -> MEM */
3143         res = new_rd_ia32_vfst(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3144         set_ia32_frame_ent(res, get_ia32_frame_ent(node));
3145         set_ia32_use_frame(res);
3146         set_ia32_ls_mode(res, get_ia32_ls_mode(node));
3147         set_ia32_am_support(res, ia32_am_Dest);
3148         set_ia32_am_flavour(res, ia32_B);
3149         set_ia32_op_type(res, ia32_AddrModeD);
3150
3151         /* Load MEM -> SSE */
3152         res = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, res);
3153         set_ia32_frame_ent(res, get_ia32_frame_ent(node));
3154         set_ia32_use_frame(res);
3155         set_ia32_ls_mode(res, get_ia32_ls_mode(node));
3156         set_ia32_am_support(res, ia32_am_Source);
3157         set_ia32_am_flavour(res, ia32_B);
3158         set_ia32_op_type(res, ia32_AddrModeS);
3159         res = new_rd_Proj(dbgi, irg, block, res, mode_xmm, pn_ia32_xLoad_res);
3160
3161         return res;
3162 }
3163
3164 /**
3165  * In case SSE Unit is used, the node is transformed into a xStore + vfld.
3166  */
3167 static ir_node *gen_ia32_l_SSEtoX87(ia32_transform_env_t *env, ir_node *node) {
3168         ia32_code_gen_t *cg     = env->cg;
3169         ir_graph        *irg    = env->irg;
3170         dbg_info        *dbgi    = get_irn_dbg_info(node);
3171         ir_node         *block  = transform_node(env, get_nodes_block(node));
3172         ir_node         *res    = NULL;
3173         ir_node         *ptr    = get_irn_n(node, 0);
3174         ir_node         *val    = get_irn_n(node, 1);
3175         ir_node         *mem    = get_irn_n(node, 2);
3176         ir_entity       *fent   = get_ia32_frame_ent(node);
3177         ir_mode         *lsmode = get_ia32_ls_mode(node);
3178         ir_node        *new_val = transform_node(env, val);
3179         ir_node *noreg, *new_ptr, *new_mem;
3180         int             offs    = 0;
3181
3182         if (!USE_SSE2(cg)) {
3183                 /* SSE unit is not used -> skip this node. */
3184                 return new_val;
3185         }
3186
3187         noreg = ia32_new_NoReg_gp(cg);
3188         new_val = transform_node(env, val);
3189         new_ptr = transform_node(env, ptr);
3190         new_mem = transform_node(env, mem);
3191
3192         /* Store SSE -> MEM */
3193         if (is_ia32_xLoad(skip_Proj(new_val))) {
3194                 ir_node *ld = skip_Proj(new_val);
3195
3196                 /* we can vfld the value directly into the fpu */
3197                 fent = get_ia32_frame_ent(ld);
3198                 ptr  = get_irn_n(ld, 0);
3199                 offs = get_ia32_am_offs_int(ld);
3200         } else {
3201                 res = new_rd_ia32_xStore(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3202                 set_ia32_frame_ent(res, fent);
3203                 set_ia32_use_frame(res);
3204                 set_ia32_ls_mode(res, lsmode);
3205                 set_ia32_am_support(res, ia32_am_Dest);
3206                 set_ia32_am_flavour(res, ia32_B);
3207                 set_ia32_op_type(res, ia32_AddrModeD);
3208                 mem = res;
3209         }
3210
3211         /* Load MEM -> x87 */
3212         res = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, new_mem);
3213         set_ia32_frame_ent(res, fent);
3214         set_ia32_use_frame(res);
3215         set_ia32_ls_mode(res, lsmode);
3216         add_ia32_am_offs_int(res, offs);
3217         set_ia32_am_support(res, ia32_am_Source);
3218         set_ia32_am_flavour(res, ia32_B);
3219         set_ia32_op_type(res, ia32_AddrModeS);
3220         res = new_rd_Proj(dbgi, irg, block, res, mode_vfp, pn_ia32_vfld_res);
3221
3222         return res;
3223 }
3224
3225 /*********************************************************
3226  *                  _             _      _
3227  *                 (_)           | |    (_)
3228  *  _ __ ___   __ _ _ _ __     __| |_ __ ___   _____ _ __
3229  * | '_ ` _ \ / _` | | '_ \   / _` | '__| \ \ / / _ \ '__|
3230  * | | | | | | (_| | | | | | | (_| | |  | |\ V /  __/ |
3231  * |_| |_| |_|\__,_|_|_| |_|  \__,_|_|  |_| \_/ \___|_|
3232  *
3233  *********************************************************/
3234
3235 /**
3236  * the BAD transformer.
3237  */
3238 static ir_node *bad_transform(ia32_transform_env_t *env, ir_node *node) {
3239         panic("No transform function for %+F available.\n", node);
3240         return NULL;
3241 }
3242
3243 static ir_node *gen_End(ia32_transform_env_t *env, ir_node *node) {
3244         /* end has to be duplicated manually because we need a dynamic in array */
3245         ir_graph *irg = env->irg;
3246         dbg_info *dbgi = get_irn_dbg_info(node);
3247         ir_node *block = transform_node(env, get_nodes_block(node));
3248         int i, arity;
3249         ir_node *new_end;
3250
3251         new_end = new_ir_node(dbgi, irg, block, op_End, mode_X, -1, NULL);
3252         copy_node_attr(node, new_end);
3253         duplicate_deps(env, node, new_end);
3254
3255         set_irg_end(irg, new_end);
3256         set_new_node(new_end, new_end);
3257
3258         /* transform preds */
3259         arity = get_irn_arity(node);
3260         for(i = 0; i < arity; ++i) {
3261                 ir_node *in = get_irn_n(node, i);
3262                 ir_node *new_in = transform_node(env, in);
3263
3264                 add_End_keepalive(new_end, new_in);
3265         }
3266
3267         return new_end;
3268 }
3269
3270 static ir_node *gen_Block(ia32_transform_env_t *env, ir_node *node) {
3271         ir_graph *irg = env->irg;
3272         dbg_info *dbgi = get_irn_dbg_info(node);
3273         ir_node *start_block = env->old_anchors[anchor_start_block];
3274         ir_node *block;
3275         int i, arity;
3276
3277         /*
3278          * We replace the ProjX from the start node with a jump,
3279          * so the startblock has no preds anymore now
3280          */
3281         if(node == start_block) {
3282                 return new_rd_Block(dbgi, irg, 0, NULL);
3283         }
3284
3285         /* we use the old blocks for now, because jumps allow cycles in the graph
3286          * we have to fix this later */
3287         block = new_ir_node(dbgi, irg, NULL, get_irn_op(node), get_irn_mode(node),
3288                             get_irn_arity(node), get_irn_in(node) + 1);
3289         copy_node_attr(node, block);
3290
3291 #ifdef DEBUG_libfirm
3292         block->node_nr = node->node_nr;
3293 #endif
3294         set_new_node(node, block);
3295
3296         /* put the preds in the worklist */
3297         arity = get_irn_arity(node);
3298         for(i = 0; i < arity; ++i) {
3299                 ir_node *in = get_irn_n(node, i);
3300                 pdeq_putr(env->worklist, in);
3301         }
3302
3303         return block;
3304 }
3305
3306 static ir_node *gen_Proj_be_AddSP(ia32_transform_env_t *env, ir_node *node) {
3307         ir_graph *irg = env->irg;
3308         ir_node *block = transform_node(env, get_nodes_block(node));
3309         dbg_info *dbgi = get_irn_dbg_info(node);
3310         ir_node *pred = get_Proj_pred(node);
3311         ir_node *new_pred = transform_node(env, pred);
3312         long proj = get_Proj_proj(node);
3313
3314         if(proj == pn_be_AddSP_res) {
3315                 ir_node *res = new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_AddSP_stack);
3316                 arch_set_irn_register(env->cg->arch_env, res, &ia32_gp_regs[REG_ESP]);
3317                 return res;
3318         } else if(proj == pn_be_AddSP_M) {
3319                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_AddSP_M);
3320         }
3321
3322         assert(0);
3323         return new_rd_Unknown(irg, get_irn_mode(node));
3324 }
3325
3326 static ir_node *gen_Proj_be_SubSP(ia32_transform_env_t *env, ir_node *node) {
3327         ir_graph *irg = env->irg;
3328         ir_node *block = transform_node(env, get_nodes_block(node));
3329         dbg_info *dbgi = get_irn_dbg_info(node);
3330         ir_node *pred = get_Proj_pred(node);
3331         ir_node *new_pred = transform_node(env, pred);
3332         long proj = get_Proj_proj(node);
3333
3334         if(proj == pn_be_SubSP_res) {
3335                 ir_node *res = new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_AddSP_stack);
3336                 arch_set_irn_register(env->cg->arch_env, res, &ia32_gp_regs[REG_ESP]);
3337                 return res;
3338         } else if(proj == pn_be_SubSP_M) {
3339                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_SubSP_M);
3340         }
3341
3342         assert(0);
3343         return new_rd_Unknown(irg, get_irn_mode(node));
3344 }
3345
3346 static ir_node *gen_Proj_Load(ia32_transform_env_t *env, ir_node *node) {
3347         ir_graph *irg = env->irg;
3348         ir_node *block = transform_node(env, get_nodes_block(node));
3349         dbg_info *dbgi = get_irn_dbg_info(node);
3350         ir_node *pred = get_Proj_pred(node);
3351         ir_node *new_pred = transform_node(env, pred);
3352         long proj = get_Proj_proj(node);
3353
3354         /* renumber the proj */
3355         if(is_ia32_Load(new_pred)) {
3356                 if(proj == pn_Load_res) {
3357                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Load_res);
3358                 } else if(proj == pn_Load_M) {
3359                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Load_M);
3360                 }
3361         } else if(is_ia32_xLoad(new_pred)) {
3362                 if(proj == pn_Load_res) {
3363                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_xmm, pn_ia32_xLoad_res);
3364                 } else if(proj == pn_Load_M) {
3365                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_xLoad_M);
3366                 }
3367         } else if(is_ia32_vfld(new_pred)) {
3368                 if(proj == pn_Load_res) {
3369                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfld_res);
3370                 } else if(proj == pn_Load_M) {
3371                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfld_M);
3372                 }
3373         }
3374
3375         assert(0);
3376         return new_rd_Unknown(irg, get_irn_mode(node));
3377 }
3378
3379 static ir_node *gen_Proj_DivMod(ia32_transform_env_t *env, ir_node *node) {
3380         ir_graph *irg = env->irg;
3381         dbg_info *dbgi = get_irn_dbg_info(node);
3382         ir_node *block = transform_node(env, get_nodes_block(node));
3383         ir_mode *mode = get_irn_mode(node);
3384
3385         ir_node *pred = get_Proj_pred(node);
3386         ir_node *new_pred = transform_node(env, pred);
3387         long proj = get_Proj_proj(node);
3388
3389         assert(is_ia32_Div(new_pred) || is_ia32_IDiv(new_pred));
3390
3391         switch(get_irn_opcode(pred)) {
3392         case iro_Div:
3393                 switch(proj) {
3394                 case pn_Div_M:
3395                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3396                 case pn_Div_res:
3397                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_div_res);
3398                 default:
3399                         break;
3400                 }
3401                 break;
3402         case iro_Mod:
3403                 switch(proj) {
3404                 case pn_Mod_M:
3405                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3406                 case pn_Mod_res:
3407                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_mod_res);
3408                 default:
3409                         break;
3410                 }
3411                 break;
3412         case iro_DivMod:
3413                 switch(proj) {
3414                 case pn_DivMod_M:
3415                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3416                 case pn_DivMod_res_div:
3417                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_div_res);
3418                 case pn_DivMod_res_mod:
3419                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_mod_res);
3420                 default:
3421                         break;
3422                 }
3423                 break;
3424         default:
3425                 break;
3426         }
3427
3428         assert(0);
3429         return new_rd_Unknown(irg, mode);
3430 }
3431
3432 static ir_node *gen_Proj_CopyB(ia32_transform_env_t *env, ir_node *node)
3433 {
3434         ir_graph *irg = env->irg;
3435         dbg_info *dbgi = get_irn_dbg_info(node);
3436         ir_node *block = transform_node(env, get_nodes_block(node));
3437         ir_mode *mode = get_irn_mode(node);
3438
3439         ir_node *pred = get_Proj_pred(node);
3440         ir_node *new_pred = transform_node(env, pred);
3441         long proj = get_Proj_proj(node);
3442
3443         switch(proj) {
3444         case pn_CopyB_M_regular:
3445                 if(is_ia32_CopyB_i(new_pred)) {
3446                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3447                                            pn_ia32_CopyB_i_M);
3448                 } else if(is_ia32_CopyB(new_pred)) {
3449                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3450                                            pn_ia32_CopyB_M);
3451                 }
3452                 break;
3453         default:
3454                 break;
3455         }
3456
3457         assert(0);
3458         return new_rd_Unknown(irg, mode);
3459 }
3460
3461 static ir_node *gen_Proj_l_vfdiv(ia32_transform_env_t *env, ir_node *node)
3462 {
3463         ir_graph *irg = env->irg;
3464         dbg_info *dbgi = get_irn_dbg_info(node);
3465         ir_node *block = transform_node(env, get_nodes_block(node));
3466         ir_mode *mode = get_irn_mode(node);
3467
3468         ir_node *pred = get_Proj_pred(node);
3469         ir_node *new_pred = transform_node(env, pred);
3470         long proj = get_Proj_proj(node);
3471
3472         switch(proj) {
3473         case pn_ia32_l_vfdiv_M:
3474                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfdiv_M);
3475         case pn_ia32_l_vfdiv_res:
3476                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfdiv_res);
3477         default:
3478                 assert(0);
3479         }
3480
3481         return new_rd_Unknown(irg, mode);
3482 }
3483
3484 static ir_node *gen_Proj_Quot(ia32_transform_env_t *env, ir_node *node)
3485 {
3486         ir_graph *irg = env->irg;
3487         dbg_info *dbgi = get_irn_dbg_info(node);
3488         ir_node *block = transform_node(env, get_nodes_block(node));
3489         ir_mode *mode = get_irn_mode(node);
3490
3491         ir_node *pred = get_Proj_pred(node);
3492         ir_node *new_pred = transform_node(env, pred);
3493         long proj = get_Proj_proj(node);
3494
3495         switch(proj) {
3496         case pn_Quot_M:
3497                 if(is_ia32_xDiv(new_pred)) {
3498                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3499                                            pn_ia32_xDiv_M);
3500                 } else if(is_ia32_vfdiv(new_pred)) {
3501                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3502                                            pn_ia32_vfdiv_M);
3503                 }
3504                 break;
3505         case pn_Quot_res:
3506                 if(is_ia32_xDiv(new_pred)) {
3507                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_xmm,
3508                                            pn_ia32_xDiv_res);
3509                 } else if(is_ia32_vfdiv(new_pred)) {
3510                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp,
3511                                            pn_ia32_vfdiv_res);
3512                 }
3513                 break;
3514         default:
3515                 break;
3516         }
3517
3518         assert(0);
3519         return new_rd_Unknown(irg, mode);
3520 }
3521
3522 static ir_node *gen_Proj_tls(ia32_transform_env_t *env, ir_node *node) {
3523         ir_graph *irg = env->irg;
3524         //dbg_info *dbgi = get_irn_dbg_info(node);
3525         dbg_info *dbgi = NULL;
3526         ir_node *block = transform_node(env, get_nodes_block(node));
3527
3528         ir_node *res = new_rd_ia32_LdTls(dbgi, irg, block, mode_Iu);
3529
3530         return res;
3531 }
3532
3533 static ir_node *gen_Proj_be_Call(ia32_transform_env_t *env, ir_node *node) {
3534         ir_graph *irg = env->irg;
3535         dbg_info *dbgi = get_irn_dbg_info(node);
3536         long proj = get_Proj_proj(node);
3537         ir_mode *mode = get_irn_mode(node);
3538         ir_node *block = transform_node(env, get_nodes_block(node));
3539         ir_node *sse_load;
3540         ir_node *call = get_Proj_pred(node);
3541         ir_node *new_call = transform_node(env, call);
3542         const arch_register_class_t *cls;
3543
3544         /* The following is kinda tricky: If we're using SSE, then we have to
3545          * move the result value of the call in floating point registers to an
3546          * xmm register, we therefore construct a GetST0 -> xLoad sequence
3547          * after the call, we have to make sure to correctly make the
3548          * MemProj and the result Proj use these 2 nodes
3549          */
3550         if(proj == pn_be_Call_M_regular) {
3551                 // get new node for result, are we doing the sse load/store hack?
3552                 ir_node *call_res = be_get_Proj_for_pn(call, pn_be_Call_first_res);
3553                 ir_node *call_res_new;
3554                 ir_node *call_res_pred = NULL;
3555
3556                 if(call_res != NULL) {
3557                         call_res_new = transform_node(env, call_res);
3558                         call_res_pred = get_Proj_pred(call_res_new);
3559                 }
3560
3561                 if(call_res_pred == NULL || be_is_Call(call_res_pred)) {
3562                         return new_rd_Proj(dbgi, irg, block, new_call, mode_M, pn_be_Call_M_regular);
3563                 } else {
3564                         assert(is_ia32_xLoad(call_res_pred));
3565                         return new_rd_Proj(dbgi, irg, block, call_res_pred, mode_M, pn_ia32_xLoad_M);
3566                 }
3567         }
3568         if(proj == pn_be_Call_first_res && mode_is_float(mode)
3569                         && USE_SSE2(env->cg)) {
3570                 ir_node *fstp;
3571                 ir_node *frame = get_irg_frame(irg);
3572                 ir_node *noreg = ia32_new_NoReg_gp(env->cg);
3573                 ir_node *p;
3574                 ir_node *call_mem = be_get_Proj_for_pn(call, pn_be_Call_M_regular);
3575                 ir_node *keepin[1];
3576                 const arch_register_class_t *cls;
3577
3578                 /* in case there is no memory output: create one to serialize the copy FPU -> SSE */
3579                 call_mem = new_rd_Proj(dbgi, irg, block, new_call, mode_M, pn_be_Call_M_regular);
3580
3581                 /* store st(0) onto stack */
3582                 fstp = new_rd_ia32_GetST0(dbgi, irg, block, frame, noreg, call_mem);
3583
3584                 set_ia32_ls_mode(fstp, mode);
3585                 set_ia32_op_type(fstp, ia32_AddrModeD);
3586                 set_ia32_use_frame(fstp);
3587                 set_ia32_am_flavour(fstp, ia32_am_B);
3588                 set_ia32_am_support(fstp, ia32_am_Dest);
3589
3590                 /* load into SSE register */
3591                 sse_load = new_rd_ia32_xLoad(dbgi, irg, block, frame, noreg, fstp);
3592                 set_ia32_ls_mode(sse_load, mode);
3593                 set_ia32_op_type(sse_load, ia32_AddrModeS);
3594                 set_ia32_use_frame(sse_load);
3595                 set_ia32_am_flavour(sse_load, ia32_am_B);
3596                 set_ia32_am_support(sse_load, ia32_am_Source);
3597
3598                 sse_load = new_rd_Proj(dbgi, irg, block, sse_load, mode_xmm, pn_ia32_xLoad_res);
3599
3600                 /* now: create new Keep whith all former ins and one additional in - the result Proj */
3601
3602                 /* get a Proj representing a caller save register */
3603                 p = be_get_Proj_for_pn(call, pn_be_Call_first_res + 1);
3604                 assert(is_Proj(p) && "Proj expected.");
3605
3606                 /* user of the the proj is the Keep */
3607                 p = get_edge_src_irn(get_irn_out_edge_first(p));
3608                 assert(be_is_Keep(p) && "Keep expected.");
3609
3610                 /* keep the result */
3611                 cls = arch_get_irn_reg_class(env->cg->arch_env, sse_load, -1);
3612                 keepin[0] = sse_load;
3613                 be_new_Keep(cls, irg, block, 1, keepin);
3614
3615                 return sse_load;
3616         }
3617
3618         /* transform call modes */
3619         if (mode_is_data(mode)) {
3620                 cls = arch_get_irn_reg_class(env->cg->arch_env, node, -1);
3621                 mode = cls->mode;
3622         }
3623
3624         return new_rd_Proj(dbgi, irg, block, new_call, mode, proj);
3625 }
3626
3627 static ir_node *gen_Proj(ia32_transform_env_t *env, ir_node *node) {
3628         ir_graph *irg = env->irg;
3629         dbg_info *dbgi = get_irn_dbg_info(node);
3630         ir_node *pred = get_Proj_pred(node);
3631         long proj = get_Proj_proj(node);
3632
3633         if(is_Store(pred) || be_is_FrameStore(pred)) {
3634                 if(proj == pn_Store_M) {
3635                         return transform_node(env, pred);
3636                 } else {
3637                         assert(0);
3638                         return new_r_Bad(irg);
3639                 }
3640         } else if(is_Load(pred) || be_is_FrameLoad(pred)) {
3641                 return gen_Proj_Load(env, node);
3642         } else if(is_Div(pred) || is_Mod(pred) || is_DivMod(pred)) {
3643                 return gen_Proj_DivMod(env, node);
3644         } else if(is_CopyB(pred)) {
3645                 return gen_Proj_CopyB(env, node);
3646         } else if(is_Quot(pred)) {
3647                 return gen_Proj_Quot(env, node);
3648         } else if(is_ia32_l_vfdiv(pred)) {
3649                 return gen_Proj_l_vfdiv(env, node);
3650         } else if(be_is_SubSP(pred)) {
3651                 return gen_Proj_be_SubSP(env, node);
3652         } else if(be_is_AddSP(pred)) {
3653                 return gen_Proj_be_AddSP(env, node);
3654         } else if(be_is_Call(pred)) {
3655                 return gen_Proj_be_Call(env, node);
3656         } else if(get_irn_op(pred) == op_Start) {
3657                 if(proj == pn_Start_X_initial_exec) {
3658                         ir_node *block = get_nodes_block(pred);
3659                         ir_node *jump;
3660
3661                         block = transform_node(env, block);
3662                         // we exchange the ProjX with a jump
3663                         jump = new_rd_Jmp(dbgi, irg, block);
3664                         ir_fprintf(stderr, "created jump: %+F\n", jump);
3665                         return jump;
3666                 }
3667                 if(node == env->old_anchors[anchor_tls]) {
3668                         return gen_Proj_tls(env, node);
3669                 }
3670         } else {
3671                 ir_node *new_pred = transform_node(env, pred);
3672                 ir_node *block    = transform_node(env, get_nodes_block(node));
3673                 ir_mode *mode     = get_irn_mode(node);
3674                 if (mode_needs_gp_reg(mode)) {
3675                         return new_r_Proj(irg, block, new_pred, mode_Iu, get_Proj_proj(node));
3676                 }
3677         }
3678
3679         return duplicate_node(env, node);
3680 }
3681
3682 /**
3683  * Enters all transform functions into the generic pointer
3684  */
3685 static void register_transformers(void) {
3686         ir_op *op_Max, *op_Min, *op_Mulh;
3687
3688         /* first clear the generic function pointer for all ops */
3689         clear_irp_opcodes_generic_func();
3690
3691 #define GEN(a)   { transform_func *func = gen_##a; op_##a->ops.generic = (op_func) func; }
3692 #define BAD(a)   op_##a->ops.generic = (op_func)bad_transform
3693
3694         GEN(Add);
3695         GEN(Sub);
3696         GEN(Mul);
3697         GEN(And);
3698         GEN(Or);
3699         GEN(Eor);
3700
3701         GEN(Shl);
3702         GEN(Shr);
3703         GEN(Shrs);
3704         GEN(Rot);
3705
3706         GEN(Quot);
3707
3708         GEN(Div);
3709         GEN(Mod);
3710         GEN(DivMod);
3711
3712         GEN(Minus);
3713         GEN(Conv);
3714         GEN(Abs);
3715         GEN(Not);
3716
3717         GEN(Load);
3718         GEN(Store);
3719         GEN(Cond);
3720
3721         GEN(CopyB);
3722         //GEN(Mux);
3723         BAD(Mux);
3724         GEN(Psi);
3725         GEN(Proj);
3726         GEN(Phi);
3727
3728         GEN(Block);
3729         GEN(End);
3730
3731         /* transform ops from intrinsic lowering */
3732         GEN(ia32_l_Add);
3733         GEN(ia32_l_Adc);
3734         GEN(ia32_l_Sub);
3735         GEN(ia32_l_Sbb);
3736         GEN(ia32_l_Neg);
3737         GEN(ia32_l_Mul);
3738         GEN(ia32_l_Xor);
3739         GEN(ia32_l_IMul);
3740         GEN(ia32_l_Shl);
3741         GEN(ia32_l_Shr);
3742         GEN(ia32_l_Sar);
3743         GEN(ia32_l_ShlD);
3744         GEN(ia32_l_ShrD);
3745         GEN(ia32_l_vfdiv);
3746         GEN(ia32_l_vfprem);
3747         GEN(ia32_l_vfmul);
3748         GEN(ia32_l_vfsub);
3749         GEN(ia32_l_vfild);
3750         GEN(ia32_l_Load);
3751         /* GEN(ia32_l_vfist); TODO */
3752         GEN(ia32_l_Store);
3753         GEN(ia32_l_X87toSSE);
3754         GEN(ia32_l_SSEtoX87);
3755
3756         GEN(Const);
3757         GEN(SymConst);
3758
3759         /* we should never see these nodes */
3760         BAD(Raise);
3761         BAD(Sel);
3762         BAD(InstOf);
3763         BAD(Cast);
3764         BAD(Free);
3765         BAD(Tuple);
3766         BAD(Id);
3767         //BAD(Bad);
3768         BAD(Confirm);
3769         BAD(Filter);
3770         BAD(CallBegin);
3771         BAD(EndReg);
3772         BAD(EndExcept);
3773
3774         /* handle generic backend nodes */
3775         GEN(be_FrameAddr);
3776         //GEN(be_Call);
3777         GEN(be_Return);
3778         GEN(be_FrameLoad);
3779         GEN(be_FrameStore);
3780         GEN(be_StackParam);
3781         GEN(be_AddSP);
3782         GEN(be_SubSP);
3783
3784         /* set the register for all Unknown nodes */
3785         GEN(Unknown);
3786
3787         op_Max = get_op_Max();
3788         if (op_Max)
3789                 GEN(Max);
3790         op_Min = get_op_Min();
3791         if (op_Min)
3792                 GEN(Min);
3793         op_Mulh = get_op_Mulh();
3794         if (op_Mulh)
3795                 GEN(Mulh);
3796
3797 #undef GEN
3798 #undef BAD
3799 }
3800
3801 static void duplicate_deps(ia32_transform_env_t *env, ir_node *old_node,
3802                            ir_node *new_node)
3803 {
3804         int i;
3805         int deps = get_irn_deps(old_node);
3806
3807         for(i = 0; i < deps; ++i) {
3808                 ir_node *dep = get_irn_dep(old_node, i);
3809                 ir_node *new_dep = transform_node(env, dep);
3810
3811                 add_irn_dep(new_node, new_dep);
3812         }
3813 }
3814
3815 static ir_node *duplicate_node(ia32_transform_env_t *env, ir_node *node)
3816 {
3817         ir_graph *irg = env->irg;
3818         dbg_info *dbgi = get_irn_dbg_info(node);
3819         ir_mode *mode = get_irn_mode(node);
3820         ir_op     *op = get_irn_op(node);
3821         ir_node *block;
3822         ir_node *new_node;
3823         int i, arity;
3824
3825         block = transform_node(env, get_nodes_block(node));
3826
3827         arity = get_irn_arity(node);
3828         if(op->opar == oparity_dynamic) {
3829                 new_node = new_ir_node(dbgi, irg, block, op, mode, -1, NULL);
3830                 for(i = 0; i < arity; ++i) {
3831                         ir_node *in = get_irn_n(node, i);
3832                         in = transform_node(env, in);
3833                         add_irn_n(new_node, in);
3834                 }
3835         } else {
3836                 ir_node **ins = alloca(arity * sizeof(ins[0]));
3837                 for(i = 0; i < arity; ++i) {
3838                         ir_node *in = get_irn_n(node, i);
3839                         ins[i] = transform_node(env, in);
3840                 }
3841
3842                 new_node = new_ir_node(dbgi, irg, block, op, mode, arity, ins);
3843         }
3844
3845         copy_node_attr(node, new_node);
3846         duplicate_deps(env, node, new_node);
3847
3848         return new_node;
3849 }
3850
3851 static ir_node *transform_node(ia32_transform_env_t *env, ir_node *node)
3852 {
3853         ir_node *new_node;
3854         ir_op   *op = get_irn_op(node);
3855
3856         if(irn_visited(node)) {
3857                 assert(get_new_node(node) != NULL);
3858                 return get_new_node(node);
3859         }
3860
3861         mark_irn_visited(node);
3862         DEBUG_ONLY(set_new_node(node, NULL));
3863
3864         if (op->ops.generic) {
3865                 transform_func *transform = (transform_func *)op->ops.generic;
3866
3867                 new_node = (*transform)(env, node);
3868                 assert(new_node != NULL);
3869         } else {
3870                 new_node = duplicate_node(env, node);
3871         }
3872         //ir_fprintf(stderr, "%+F -> %+F\n", node, new_node);
3873
3874         set_new_node(node, new_node);
3875         mark_irn_visited(new_node);
3876         hook_dead_node_elim_subst(current_ir_graph, node, new_node);
3877         return new_node;
3878 }
3879
3880 static void fix_loops(ia32_transform_env_t *env, ir_node *node)
3881 {
3882         int i, arity;
3883
3884         if(irn_visited(node))
3885                 return;
3886         mark_irn_visited(node);
3887
3888         assert(node_is_in_irgs_storage(env->irg, node));
3889
3890         if(!is_Block(node)) {
3891                 ir_node *block = get_nodes_block(node);
3892                 ir_node *new_block = (ir_node*) get_irn_link(block);
3893
3894                 if(new_block != NULL) {
3895                         set_nodes_block(node, new_block);
3896                         block = new_block;
3897                 }
3898
3899                 fix_loops(env, block);
3900         }
3901
3902         arity = get_irn_arity(node);
3903         for(i = 0; i < arity; ++i) {
3904                 ir_node *in = get_irn_n(node, i);
3905                 ir_node *new = (ir_node*) get_irn_link(in);
3906
3907                 if(new != NULL && new != in) {
3908                         set_irn_n(node, i, new);
3909                         in = new;
3910                 }
3911
3912                 fix_loops(env, in);
3913         }
3914
3915         arity = get_irn_deps(node);
3916         for(i = 0; i < arity; ++i) {
3917                 ir_node *in = get_irn_dep(node, i);
3918                 ir_node *new = (ir_node*) get_irn_link(in);
3919
3920                 if(new != NULL && new != in) {
3921                         set_irn_dep(node, i, new);
3922                         in = new;
3923                 }
3924
3925                 fix_loops(env, in);
3926         }
3927 }
3928
3929 static void pre_transform_node(ir_node **place, ia32_transform_env_t *env)
3930 {
3931         if(*place == NULL)
3932                 return;
3933
3934         *place = transform_node(env, *place);
3935 }
3936
3937 static void transform_nodes(ia32_code_gen_t *cg)
3938 {
3939         int i;
3940         ir_graph *irg = cg->irg;
3941         ir_node *old_end;
3942         ia32_transform_env_t env;
3943
3944         hook_dead_node_elim(irg, 1);
3945
3946         inc_irg_visited(irg);
3947
3948         env.irg = irg;
3949         env.cg = cg;
3950         env.visited = get_irg_visited(irg);
3951         env.worklist = new_pdeq();
3952         env.old_anchors = alloca(anchor_max * sizeof(env.old_anchors[0]));
3953
3954         old_end = get_irg_end(irg);
3955
3956         /* put all anchor nodes in the worklist */
3957         for(i = 0; i < anchor_max; ++i) {
3958                 ir_node *anchor = irg->anchors[i];
3959                 if(anchor == NULL)
3960                         continue;
3961                 pdeq_putr(env.worklist, anchor);
3962
3963                 // remember anchor
3964                 env.old_anchors[i] = anchor;
3965                 // and set it to NULL to make sure we don't accidently use it
3966                 irg->anchors[i] = NULL;
3967         }
3968
3969         // pre transform some anchors (so they are available in the other transform
3970         // functions)
3971         set_irg_bad(irg, transform_node(&env, env.old_anchors[anchor_bad]));
3972         set_irg_no_mem(irg, transform_node(&env, env.old_anchors[anchor_no_mem]));
3973         set_irg_start_block(irg, transform_node(&env, env.old_anchors[anchor_start_block]));
3974         set_irg_start(irg, transform_node(&env, env.old_anchors[anchor_start]));
3975         set_irg_frame(irg, transform_node(&env, env.old_anchors[anchor_frame]));
3976
3977         pre_transform_node(&cg->unknown_gp, &env);
3978         pre_transform_node(&cg->unknown_vfp, &env);
3979         pre_transform_node(&cg->unknown_xmm, &env);
3980         pre_transform_node(&cg->noreg_gp, &env);
3981         pre_transform_node(&cg->noreg_vfp, &env);
3982         pre_transform_node(&cg->noreg_xmm, &env);
3983
3984         /* process worklist (this should transform all nodes in the graph) */
3985         while(!pdeq_empty(env.worklist)) {
3986                 ir_node *node = pdeq_getl(env.worklist);
3987                 transform_node(&env, node);
3988         }
3989
3990         /* fix loops and set new anchors*/
3991         inc_irg_visited(irg);
3992         for(i = 0; i < anchor_max; ++i) {
3993                 ir_node *anchor = env.old_anchors[i];
3994                 if(anchor == NULL)
3995                         continue;
3996
3997                 anchor = get_irn_link(anchor);
3998                 fix_loops(&env, anchor);
3999                 assert(irg->anchors[i] == NULL || irg->anchors[i] == anchor);
4000                 irg->anchors[i] = anchor;
4001         }
4002
4003         del_pdeq(env.worklist);
4004         free_End(old_end);
4005         hook_dead_node_elim(irg, 0);
4006 }
4007
4008 void ia32_transform_graph(ia32_code_gen_t *cg)
4009 {
4010         ir_graph *irg = cg->irg;
4011         be_irg_t *birg = cg->birg;
4012         ir_graph *old_current_ir_graph = current_ir_graph;
4013         int old_interprocedural_view = get_interprocedural_view();
4014         struct obstack *old_obst = NULL;
4015         struct obstack *new_obst = NULL;
4016
4017         current_ir_graph = irg;
4018         set_interprocedural_view(0);
4019         register_transformers();
4020
4021         /* most analysis info is wrong after transformation */
4022         free_callee_info(irg);
4023         free_irg_outs(irg);
4024         irg->outs_state = outs_none;
4025         free_trouts();
4026         free_loop_information(irg);
4027         set_irg_doms_inconsistent(irg);
4028         be_invalidate_liveness(birg);
4029         be_invalidate_dom_front(birg);
4030
4031         /* create a new obstack */
4032         old_obst = irg->obst;
4033         new_obst = xmalloc(sizeof(*new_obst));
4034         obstack_init(new_obst);
4035         irg->obst = new_obst;
4036         irg->last_node_idx = 0;
4037
4038         /* create new value table for CSE */
4039         del_identities(irg->value_table);
4040         irg->value_table = new_identities();
4041
4042         /* do the main transformation */
4043         transform_nodes(cg);
4044
4045         /* we don't want the globals anchor anymore */
4046         set_irg_globals(irg, new_r_Bad(irg));
4047
4048         /* free the old obstack */
4049         obstack_free(old_obst, 0);
4050         xfree(old_obst);
4051
4052         /* restore state */
4053         current_ir_graph = old_current_ir_graph;
4054         set_interprocedural_view(old_interprocedural_view);
4055
4056         /* recalculate edges */
4057         edges_deactivate(irg);
4058         edges_activate(irg);
4059 }
4060
4061 /**
4062  * Transforms a psi condition.
4063  */
4064 static void transform_psi_cond(ir_node *cond, ir_mode *mode, ia32_code_gen_t *cg) {
4065         int i;
4066
4067         /* if the mode is target mode, we have already seen this part of the tree */
4068         if (get_irn_mode(cond) == mode)
4069                 return;
4070
4071         assert(get_irn_mode(cond) == mode_b && "logical operator for condition must be mode_b");
4072
4073         set_irn_mode(cond, mode);
4074
4075         for (i = get_irn_arity(cond) - 1; i >= 0; i--) {
4076                 ir_node *in = get_irn_n(cond, i);
4077
4078                 /* if in is a compare: transform into Set/xCmp */
4079                 if (is_Proj(in)) {
4080                         ir_node  *new_op = NULL;
4081                         ir_node  *cmp    = get_Proj_pred(in);
4082                         ir_node  *cmp_a  = get_Cmp_left(cmp);
4083                         ir_node  *cmp_b  = get_Cmp_right(cmp);
4084                         dbg_info *dbgi    = get_irn_dbg_info(cmp);
4085                         ir_graph *irg    = get_irn_irg(cmp);
4086                         ir_node  *block  = get_nodes_block(cmp);
4087                         ir_node  *noreg  = ia32_new_NoReg_gp(cg);
4088                         ir_node  *nomem  = new_rd_NoMem(irg);
4089                         int      pnc     = get_Proj_proj(in);
4090
4091                         /* this is a compare */
4092                         if (mode_is_float(mode)) {
4093                                 /* Psi is float, we need a floating point compare */
4094
4095                                 if (USE_SSE2(cg)) {
4096                                         ir_mode *m = get_irn_mode(cmp_a);
4097                                         /* SSE FPU */
4098                                         if (! mode_is_float(m)) {
4099                                                 cmp_a = gen_sse_conv_int2float(cg, dbgi, irg, block, cmp_a, cmp_a, mode);
4100                                                 cmp_b = gen_sse_conv_int2float(cg, dbgi, irg, block, cmp_b, cmp_b, mode);
4101                                         } else if (m == mode_F) {
4102                                                 /* we convert cmp values always to double, to get correct bitmask with cmpsd */
4103                                                 cmp_a = gen_sse_conv_f2d(cg, dbgi, irg, block, cmp_a, cmp_a);
4104                                                 cmp_b = gen_sse_conv_f2d(cg, dbgi, irg, block, cmp_b, cmp_b);
4105                                         }
4106
4107                                         new_op = new_rd_ia32_xCmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
4108                                         set_ia32_pncode(new_op, pnc);
4109                                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, cmp));
4110                                 } else {
4111                                         /* x87 FPU */
4112                                         assert(0);
4113                                 }
4114                         } else {
4115                                 /* integer Psi */
4116                                 construct_binop_func *set_func  = NULL;
4117
4118                                 if (mode_is_float(get_irn_mode(cmp_a))) {
4119                                         /* 1st case: compare operands are floats */
4120                                         FP_USED(cg);
4121
4122                                         if (USE_SSE2(cg)) {
4123                                                 /* SSE FPU */
4124                                                 set_func  = new_rd_ia32_xCmpSet;
4125                                         } else {
4126                                                 /* x87 FPU */
4127                                                 set_func  = new_rd_ia32_vfCmpSet;
4128                                         }
4129
4130                                         pnc &= 7; /* fp compare -> int compare */
4131                                 } else {
4132                                         /* 2nd case: compare operand are integer too */
4133                                         set_func  = new_rd_ia32_CmpSet;
4134                                 }
4135
4136                                 new_op = set_func(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
4137                                 if(!mode_is_signed(mode))
4138                                         pnc |= ia32_pn_Cmp_Unsigned;
4139
4140                                 set_ia32_pncode(new_op, pnc);
4141                                 set_ia32_am_support(new_op, ia32_am_Source);
4142                         }
4143
4144                         /* the the new compare as in */
4145                         set_irn_n(cond, i, new_op);
4146                 } else {
4147                         /* another complex condition */
4148                         transform_psi_cond(in, mode, cg);
4149                 }
4150         }
4151 }
4152
4153 /**
4154  * The Psi selector can be a tree of compares combined with "And"s and "Or"s.
4155  * We create a Set node, respectively a xCmp in case the Psi is a float, for
4156  * each compare, which causes the compare result to be stored in a register. The
4157  * "And"s and "Or"s are transformed later, we just have to set their mode right.
4158  */
4159 void ia32_transform_psi_cond_tree(ir_node *node, void *env) {
4160         ia32_code_gen_t *cg = env;
4161         ir_node         *psi_sel, *new_cmp, *block;
4162         ir_graph        *irg;
4163         ir_mode         *mode;
4164
4165         /* check for Psi */
4166         if (get_irn_opcode(node) != iro_Psi)
4167                 return;
4168
4169         psi_sel = get_Psi_cond(node, 0);
4170
4171         /* if psi_cond is a cmp: do nothing, this case is covered by gen_Psi */
4172         if (is_Proj(psi_sel)) {
4173                 assert(is_Cmp(get_Proj_pred(psi_sel)));
4174                 return;
4175         }
4176
4177         //mode = get_irn_mode(node);
4178         // TODO probably wrong...
4179         mode = mode_Iu;
4180
4181         transform_psi_cond(psi_sel, mode, cg);
4182
4183         irg   = get_irn_irg(node);
4184         block = get_nodes_block(node);
4185
4186         /* we need to compare the evaluated condition tree with 0 */
4187         mode = get_irn_mode(node);
4188         if (mode_is_float(mode)) {
4189                 /* BEWARE: new_r_Const_long works for floating point as well */
4190                 ir_node *zero = new_r_Const_long(irg, block, mode, 0);
4191
4192                 psi_sel = gen_sse_conv_int2float(cg, NULL, irg, block, psi_sel, NULL, mode);
4193                 new_cmp = new_r_Cmp(irg, block, psi_sel, zero);
4194                 new_cmp = new_r_Proj(irg, block, new_cmp, mode_b, pn_Cmp_Ne);
4195         } else {
4196                 ir_node *zero = new_r_Const_long(irg, block, mode_Iu, 0);
4197                 new_cmp = new_r_Cmp(irg, block, psi_sel, zero);
4198                 new_cmp = new_r_Proj(irg, block, new_cmp, mode_b, pn_Cmp_Gt | pn_Cmp_Lt);
4199         }
4200
4201         set_Psi_cond(node, 0, new_cmp);
4202 }
4203
4204 void ia32_init_transform(void)
4205 {
4206         FIRM_DBG_REGISTER(dbg, "firm.be.ia32.transform");
4207 }