4522bece84a34b4021e572d0d72d923500dbc2aa
[libfirm] / ir / be / ia32 / ia32_transform.c
1 /*
2  * Copyright (C) 1995-2007 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       This file implements the IR transformation from firm into ia32-Firm.
23  * @author      Christian Wuerdig, Matthias Braun
24  * @version     $Id$
25  */
26 #ifdef HAVE_CONFIG_H
27 #include "config.h"
28 #endif
29
30 #include <limits.h>
31
32 #include "irargs_t.h"
33 #include "irnode_t.h"
34 #include "irgraph_t.h"
35 #include "irmode_t.h"
36 #include "iropt_t.h"
37 #include "irop_t.h"
38 #include "irprog_t.h"
39 #include "iredges_t.h"
40 #include "irgmod.h"
41 #include "irvrfy.h"
42 #include "ircons.h"
43 #include "irgwalk.h"
44 #include "dbginfo.h"
45 #include "irprintf.h"
46 #include "debug.h"
47 #include "irdom.h"
48 #include "type.h"
49 #include "entity.h"
50 #include "archop.h"     /* we need this for Min and Max nodes */
51 #include "error.h"
52 #include "cgana.h"
53 #include "irouts.h"
54 #include "trouts.h"
55 #include "irhooks.h"
56
57 #include "../benode_t.h"
58 #include "../besched.h"
59 #include "../beabi.h"
60 #include "../beutil.h"
61 #include "../beirg_t.h"
62
63 #include "bearch_ia32_t.h"
64 #include "ia32_nodes_attr.h"
65 #include "ia32_transform.h"
66 #include "ia32_new_nodes.h"
67 #include "ia32_map_regs.h"
68 #include "ia32_dbg_stat.h"
69 #include "ia32_optimize.h"
70 #include "ia32_util.h"
71
72 #include "gen_ia32_regalloc_if.h"
73
74 #define SFP_SIGN "0x80000000"
75 #define DFP_SIGN "0x8000000000000000"
76 #define SFP_ABS  "0x7FFFFFFF"
77 #define DFP_ABS  "0x7FFFFFFFFFFFFFFF"
78
79 #define TP_SFP_SIGN "ia32_sfp_sign"
80 #define TP_DFP_SIGN "ia32_dfp_sign"
81 #define TP_SFP_ABS  "ia32_sfp_abs"
82 #define TP_DFP_ABS  "ia32_dfp_abs"
83
84 #define ENT_SFP_SIGN "IA32_SFP_SIGN"
85 #define ENT_DFP_SIGN "IA32_DFP_SIGN"
86 #define ENT_SFP_ABS  "IA32_SFP_ABS"
87 #define ENT_DFP_ABS  "IA32_DFP_ABS"
88
89 #define mode_vfp        (ia32_reg_classes[CLASS_ia32_vfp].mode)
90 #define mode_xmm    (ia32_reg_classes[CLASS_ia32_xmm].mode)
91
92 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
93
94 typedef struct ia32_transform_env_t {
95         ir_graph          *irg;        /**< The irg, the node should be created in */
96         ia32_code_gen_t   *cg;         /**< The code generator */
97         int               visited;     /**< visited count that indicates whether a
98                                             node is already transformed */
99         pdeq              *worklist;   /**< worklist of nodes that still need to be
100                                                                         transformed */
101         ir_node          **old_anchors;/**< the list of anchors nodes in the old irg*/
102 } ia32_transform_env_t;
103
104 extern ir_op *get_op_Mulh(void);
105
106 typedef ir_node *construct_binop_func(dbg_info *db, ir_graph *irg,
107         ir_node *block, ir_node *base, ir_node *index, ir_node *op1,
108         ir_node *op2, ir_node *mem);
109
110 typedef ir_node *construct_unop_func(dbg_info *db, ir_graph *irg,
111         ir_node *block, ir_node *base, ir_node *index, ir_node *op,
112         ir_node *mem);
113
114 typedef ir_node *(transform_func)(ia32_transform_env_t *env, ir_node *node);
115
116 /****************************************************************************************************
117  *                  _        _                        __                           _   _
118  *                 | |      | |                      / _|                         | | (_)
119  *  _ __   ___   __| | ___  | |_ _ __ __ _ _ __  ___| |_ ___  _ __ _ __ ___   __ _| |_ _  ___  _ __
120  * | '_ \ / _ \ / _` |/ _ \ | __| '__/ _` | '_ \/ __|  _/ _ \| '__| '_ ` _ \ / _` | __| |/ _ \| '_ \
121  * | | | | (_) | (_| |  __/ | |_| | | (_| | | | \__ \ || (_) | |  | | | | | | (_| | |_| | (_) | | | |
122  * |_| |_|\___/ \__,_|\___|  \__|_|  \__,_|_| |_|___/_| \___/|_|  |_| |_| |_|\__,_|\__|_|\___/|_| |_|
123  *
124  ****************************************************************************************************/
125
126 static ir_node *duplicate_node(ia32_transform_env_t *env, ir_node *node);
127 static ir_node *transform_node(ia32_transform_env_t *env, ir_node *node);
128 static void duplicate_deps(ia32_transform_env_t *env, ir_node *old_node,
129                            ir_node *new_node);
130
131 static INLINE int mode_needs_gp_reg(ir_mode *mode)
132 {
133         if(mode == mode_fpcw)
134                 return 0;
135
136         return mode_is_int(mode) || mode_is_character(mode) || mode_is_reference(mode);
137 }
138
139 static INLINE void set_new_node(ir_node *old_node, ir_node *new_node)
140 {
141         set_irn_link(old_node, new_node);
142 }
143
144 static INLINE ir_node *get_new_node(ir_node *old_node)
145 {
146         assert(irn_visited(old_node));
147         return (ir_node*) get_irn_link(old_node);
148 }
149
150 /**
151  * Returns 1 if irn is a Const representing 0, 0 otherwise
152  */
153 static INLINE int is_ia32_Const_0(ir_node *irn) {
154         return is_ia32_irn(irn) && is_ia32_Const(irn) && get_ia32_immop_type(irn) == ia32_ImmConst
155                && tarval_is_null(get_ia32_Immop_tarval(irn));
156 }
157
158 /**
159  * Returns 1 if irn is a Const representing 1, 0 otherwise
160  */
161 static INLINE int is_ia32_Const_1(ir_node *irn) {
162         return is_ia32_irn(irn) && is_ia32_Const(irn) && get_ia32_immop_type(irn) == ia32_ImmConst
163                && tarval_is_one(get_ia32_Immop_tarval(irn));
164 }
165
166 /**
167  * Collects all Projs of a node into the node array. Index is the projnum.
168  * BEWARE: The caller has to assure the appropriate array size!
169  */
170 static void ia32_collect_Projs(ir_node *irn, ir_node **projs, int size) {
171         const ir_edge_t *edge;
172         assert(get_irn_mode(irn) == mode_T && "need mode_T");
173
174         memset(projs, 0, size * sizeof(projs[0]));
175
176         foreach_out_edge(irn, edge) {
177                 ir_node *proj = get_edge_src_irn(edge);
178                 int proj_proj = get_Proj_proj(proj);
179                 assert(proj_proj < size);
180                 projs[proj_proj] = proj;
181         }
182 }
183
184 /**
185  * Renumbers the proj having pn_old in the array tp pn_new
186  * and removes the proj from the array.
187  */
188 static INLINE void ia32_renumber_Proj(ir_node **projs, long pn_old, long pn_new) {
189         fprintf(stderr, "Warning: renumber_Proj used!\n");
190         if (projs[pn_old]) {
191                 set_Proj_proj(projs[pn_old], pn_new);
192                 projs[pn_old] = NULL;
193         }
194 }
195
196 /**
197  * creates a unique ident by adding a number to a tag
198  *
199  * @param tag   the tag string, must contain a %d if a number
200  *              should be added
201  */
202 static ident *unique_id(const char *tag)
203 {
204         static unsigned id = 0;
205         char str[256];
206
207         snprintf(str, sizeof(str), tag, ++id);
208         return new_id_from_str(str);
209 }
210
211 /**
212  * Get a primitive type for a mode.
213  */
214 static ir_type *get_prim_type(pmap *types, ir_mode *mode)
215 {
216         pmap_entry *e = pmap_find(types, mode);
217         ir_type *res;
218
219         if (! e) {
220                 char buf[64];
221                 snprintf(buf, sizeof(buf), "prim_type_%s", get_mode_name(mode));
222                 res = new_type_primitive(new_id_from_str(buf), mode);
223                 pmap_insert(types, mode, res);
224         }
225         else
226                 res = e->value;
227         return res;
228 }
229
230 /**
231  * Get an entity that is initialized with a tarval
232  */
233 static ir_entity *get_entity_for_tv(ia32_code_gen_t *cg, ir_node *cnst)
234 {
235         tarval *tv    = get_Const_tarval(cnst);
236         pmap_entry *e = pmap_find(cg->isa->tv_ent, tv);
237         ir_entity *res;
238         ir_graph *rem;
239
240         if (! e) {
241                 ir_mode *mode = get_irn_mode(cnst);
242                 ir_type *tp = get_Const_type(cnst);
243                 if (tp == firm_unknown_type)
244                         tp = get_prim_type(cg->isa->types, mode);
245
246                 res = new_entity(get_glob_type(), unique_id(".LC%u"), tp);
247
248                 set_entity_ld_ident(res, get_entity_ident(res));
249                 set_entity_visibility(res, visibility_local);
250                 set_entity_variability(res, variability_constant);
251                 set_entity_allocation(res, allocation_static);
252
253                  /* we create a new entity here: It's initialization must resist on the
254                     const code irg */
255                 rem = current_ir_graph;
256                 current_ir_graph = get_const_code_irg();
257                 set_atomic_ent_value(res, new_Const_type(tv, tp));
258                 current_ir_graph = rem;
259
260                 pmap_insert(cg->isa->tv_ent, tv, res);
261         } else {
262                 res = e->value;
263         }
264
265         return res;
266 }
267
268 /**
269  * Transforms a Const.
270  */
271 static ir_node *gen_Const(ia32_transform_env_t *env, ir_node *node) {
272         ir_graph        *irg   = env->irg;
273         dbg_info        *dbgi   = get_irn_dbg_info(node);
274         ir_mode         *mode  = get_irn_mode(node);
275         ir_node         *block = transform_node(env, get_nodes_block(node));
276
277         if (mode_is_float(mode)) {
278                 ir_node *res = NULL;
279                 ir_entity *floatent;
280                 ir_node *noreg = ia32_new_NoReg_gp(env->cg);
281                 ir_node *nomem = new_NoMem();
282                 ir_node *load;
283
284                 FP_USED(env->cg);
285                 if (! USE_SSE2(env->cg)) {
286                         cnst_classify_t clss = classify_Const(node);
287
288                         if (clss == CNST_NULL) {
289                                 load = new_rd_ia32_vfldz(dbgi, irg, block);
290                                 res  = load;
291                         } else if (clss == CNST_ONE) {
292                                 load = new_rd_ia32_vfld1(dbgi, irg, block);
293                                 res  = load;
294                         } else {
295                                 floatent = get_entity_for_tv(env->cg, node);
296
297                                 load     = new_rd_ia32_vfld(dbgi, irg, block, noreg, noreg, nomem);
298                                 set_ia32_am_support(load, ia32_am_Source);
299                                 set_ia32_op_type(load, ia32_AddrModeS);
300                                 set_ia32_am_flavour(load, ia32_am_N);
301                                 set_ia32_am_sc(load, floatent);
302                                 res      = new_r_Proj(irg, block, load, mode_vfp, pn_ia32_vfld_res);
303                         }
304                         set_ia32_ls_mode(load, mode);
305                 } else {
306                         floatent = get_entity_for_tv(env->cg, node);
307
308                         load     = new_rd_ia32_xLoad(dbgi, irg, block, noreg, noreg, nomem);
309                         set_ia32_am_support(load, ia32_am_Source);
310                         set_ia32_op_type(load, ia32_AddrModeS);
311                         set_ia32_am_flavour(load, ia32_am_N);
312                         set_ia32_am_sc(load, floatent);
313                         set_ia32_ls_mode(load, mode);
314
315                         res = new_r_Proj(irg, block, load, mode_xmm, pn_ia32_xLoad_res);
316                 }
317
318                 SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env->cg, node));
319
320                 /* Const Nodes before the initial IncSP are a bad idea, because
321                  * they could be spilled and we have no SP ready at that point yet
322                  */
323                 if (get_irg_start_block(irg) == block) {
324                         add_irn_dep(load, get_irg_frame(irg));
325                 }
326
327                 SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env->cg, node));
328                 return res;
329         } else {
330                 ir_node *cnst = new_rd_ia32_Const(dbgi, irg, block);
331
332                 /* see above */
333                 if (get_irg_start_block(irg) == block) {
334                         add_irn_dep(cnst, get_irg_frame(irg));
335                 }
336
337                 set_ia32_Const_attr(cnst, node);
338                 SET_IA32_ORIG_NODE(cnst, ia32_get_old_node_name(env->cg, node));
339                 return cnst;
340         }
341
342         assert(0);
343         return new_r_Bad(irg);
344 }
345
346 /**
347  * Transforms a SymConst.
348  */
349 static ir_node *gen_SymConst(ia32_transform_env_t *env, ir_node *node) {
350         ir_graph *irg   = env->irg;
351         dbg_info *dbgi   = get_irn_dbg_info(node);
352         ir_mode  *mode  = get_irn_mode(node);
353         ir_node  *block = transform_node(env, get_nodes_block(node));
354         ir_node  *cnst;
355
356         if (mode_is_float(mode)) {
357                 FP_USED(env->cg);
358                 if (USE_SSE2(env->cg))
359                         cnst = new_rd_ia32_xConst(dbgi, irg, block);
360                 else
361                         cnst = new_rd_ia32_vfConst(dbgi, irg, block);
362                 set_ia32_ls_mode(cnst, mode);
363         } else {
364                 cnst = new_rd_ia32_Const(dbgi, irg, block);
365         }
366
367         /* Const Nodes before the initial IncSP are a bad idea, because
368          * they could be spilled and we have no SP ready at that point yet
369          */
370         if (get_irg_start_block(irg) == block) {
371                 add_irn_dep(cnst, get_irg_frame(irg));
372         }
373
374         set_ia32_Const_attr(cnst, node);
375         SET_IA32_ORIG_NODE(cnst, ia32_get_old_node_name(env->cg, node));
376
377         return cnst;
378 }
379
380 /**
381  * SSE convert of an integer node into a floating point node.
382  */
383 static ir_node *gen_sse_conv_int2float(ia32_code_gen_t *cg, dbg_info *dbgi,
384                                        ir_graph *irg, ir_node *block,
385                                        ir_node *in, ir_node *old_node, ir_mode *tgt_mode)
386 {
387         ir_node *noreg = ia32_new_NoReg_gp(cg);
388         ir_node *nomem = new_rd_NoMem(irg);
389         ir_node *old_pred = get_Cmp_left(old_node);
390         ir_mode *in_mode = get_irn_mode(old_pred);
391         int in_bits = get_mode_size_bits(in_mode);
392
393         ir_node *conv = new_rd_ia32_Conv_I2FP(dbgi, irg, block, noreg, noreg, in, nomem);
394         set_ia32_ls_mode(conv, tgt_mode);
395         if(in_bits == 32) {
396                 set_ia32_am_support(conv, ia32_am_Source);
397         }
398         SET_IA32_ORIG_NODE(conv, ia32_get_old_node_name(cg, old_node));
399
400         return conv;
401 }
402
403 /**
404  * SSE convert of an float node into a double node.
405  */
406 static ir_node *gen_sse_conv_f2d(ia32_code_gen_t *cg, dbg_info *dbgi,
407                                  ir_graph *irg, ir_node *block,
408                                  ir_node *in, ir_node *old_node)
409 {
410         ir_node *noreg = ia32_new_NoReg_gp(cg);
411         ir_node *nomem = new_rd_NoMem(irg);
412
413         ir_node *conv = new_rd_ia32_Conv_FP2FP(dbgi, irg, block, noreg, noreg, in, nomem);
414         set_ia32_am_support(conv, ia32_am_Source);
415         set_ia32_ls_mode(conv, mode_xmm);
416         SET_IA32_ORIG_NODE(conv, ia32_get_old_node_name(cg, old_node));
417
418         return conv;
419 }
420
421 /* Generates an entity for a known FP const (used for FP Neg + Abs) */
422 ir_entity *ia32_gen_fp_known_const(ia32_known_const_t kct) {
423         static const struct {
424                 const char *tp_name;
425                 const char *ent_name;
426                 const char *cnst_str;
427         } names [ia32_known_const_max] = {
428                 { TP_SFP_SIGN, ENT_SFP_SIGN, SFP_SIGN },        /* ia32_SSIGN */
429                 { TP_DFP_SIGN, ENT_DFP_SIGN, DFP_SIGN },        /* ia32_DSIGN */
430                 { TP_SFP_ABS,  ENT_SFP_ABS,  SFP_ABS },         /* ia32_SABS */
431                 { TP_DFP_ABS,  ENT_DFP_ABS,  DFP_ABS }          /* ia32_DABS */
432         };
433         static ir_entity *ent_cache[ia32_known_const_max];
434
435         const char    *tp_name, *ent_name, *cnst_str;
436         ir_type       *tp;
437         ir_node       *cnst;
438         ir_graph      *rem;
439         ir_entity     *ent;
440         tarval        *tv;
441         ir_mode       *mode;
442
443         ent_name = names[kct].ent_name;
444         if (! ent_cache[kct]) {
445                 tp_name  = names[kct].tp_name;
446                 cnst_str = names[kct].cnst_str;
447
448                 mode = kct == ia32_SSIGN || kct == ia32_SABS ? mode_Iu : mode_Lu;
449                 //mode = mode_xmm;
450                 tv  = new_tarval_from_str(cnst_str, strlen(cnst_str), mode);
451                 tp  = new_type_primitive(new_id_from_str(tp_name), mode);
452                 ent = new_entity(get_glob_type(), new_id_from_str(ent_name), tp);
453
454                 set_entity_ld_ident(ent, get_entity_ident(ent));
455                 set_entity_visibility(ent, visibility_local);
456                 set_entity_variability(ent, variability_constant);
457                 set_entity_allocation(ent, allocation_static);
458
459                 /* we create a new entity here: It's initialization must resist on the
460                     const code irg */
461                 rem = current_ir_graph;
462                 current_ir_graph = get_const_code_irg();
463                 cnst = new_Const(mode, tv);
464                 current_ir_graph = rem;
465
466                 set_atomic_ent_value(ent, cnst);
467
468                 /* cache the entry */
469                 ent_cache[kct] = ent;
470         }
471
472         return ent_cache[kct];
473 }
474
475 #ifndef NDEBUG
476 /**
477  * Prints the old node name on cg obst and returns a pointer to it.
478  */
479 const char *ia32_get_old_node_name(ia32_code_gen_t *cg, ir_node *irn) {
480         ia32_isa_t *isa = (ia32_isa_t *)cg->arch_env->isa;
481
482         lc_eoprintf(firm_get_arg_env(), isa->name_obst, "%+F", irn);
483         obstack_1grow(isa->name_obst, 0);
484         return obstack_finish(isa->name_obst);
485 }
486 #endif /* NDEBUG */
487
488 /* determine if one operator is an Imm */
489 static ir_node *get_immediate_op(ir_node *op1, ir_node *op2) {
490         if (op1) {
491                 return is_ia32_Cnst(op1) ? op1 : (is_ia32_Cnst(op2) ? op2 : NULL);
492         } else {
493                 return is_ia32_Cnst(op2) ? op2 : NULL;
494         }
495 }
496
497 /* determine if one operator is not an Imm */
498 static ir_node *get_expr_op(ir_node *op1, ir_node *op2) {
499         return !is_ia32_Cnst(op1) ? op1 : (!is_ia32_Cnst(op2) ? op2 : NULL);
500 }
501
502 static void fold_immediate(ia32_transform_env_t *env, ir_node *node, int in1, int in2) {
503         ir_node *left;
504         ir_node *right;
505
506         if(! (env->cg->opt & IA32_OPT_IMMOPS))
507                 return;
508
509         left = get_irn_n(node, in1);
510         right = get_irn_n(node, in2);
511         if(!is_ia32_Cnst(right) && is_ia32_Cnst(left)) {
512                 /* we can only set right operand to immediate */
513                 if(!is_ia32_commutative(node))
514                         return;
515                 /* exchange left/right */
516                 set_irn_n(node, in1, right);
517                 set_irn_n(node, in2, ia32_get_admissible_noreg(env->cg, node, in2));
518                 copy_ia32_Immop_attr(node, left);
519         } else if(is_ia32_Cnst(right)) {
520                 set_irn_n(node, in2, ia32_get_admissible_noreg(env->cg, node, in2));
521                 copy_ia32_Immop_attr(node, right);
522         } else {
523                 return;
524         }
525
526         set_ia32_am_support(node, get_ia32_am_support(node) & ~ia32_am_Source);
527 }
528
529 /**
530  * Construct a standard binary operation, set AM and immediate if required.
531  *
532  * @param env   The transformation environment
533  * @param op1   The first operand
534  * @param op2   The second operand
535  * @param func  The node constructor function
536  * @return The constructed ia32 node.
537  */
538 static ir_node *gen_binop(ia32_transform_env_t *env, ir_node *node,
539                           ir_node *op1, ir_node *op2,
540                           construct_binop_func *func) {
541         ir_node  *new_node = NULL;
542         ir_graph *irg      = env->irg;
543         dbg_info *dbgi      = get_irn_dbg_info(node);
544         ir_node  *block    = transform_node(env, get_nodes_block(node));
545         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
546         ir_node  *nomem    = new_NoMem();
547         ir_node  *new_op1  = transform_node(env, op1);
548         ir_node  *new_op2  = transform_node(env, op2);
549
550         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2, nomem);
551         if(func == new_rd_ia32_IMul) {
552                 set_ia32_am_support(new_node, ia32_am_Source);
553         } else {
554                 set_ia32_am_support(new_node, ia32_am_Full);
555         }
556
557         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
558         if (is_op_commutative(get_irn_op(node))) {
559                 set_ia32_commutative(new_node);
560         }
561         fold_immediate(env, new_node, 2, 3);
562
563         return new_node;
564 }
565
566 /**
567  * Construct a standard binary operation, set AM and immediate if required.
568  *
569  * @param env   The transformation environment
570  * @param op1   The first operand
571  * @param op2   The second operand
572  * @param func  The node constructor function
573  * @return The constructed ia32 node.
574  */
575 static ir_node *gen_binop_float(ia32_transform_env_t *env, ir_node *node,
576                                 ir_node *op1, ir_node *op2,
577                                 construct_binop_func *func)
578 {
579         ir_node  *new_node = NULL;
580         dbg_info *dbgi      = get_irn_dbg_info(node);
581         ir_graph *irg      = env->irg;
582         ir_mode  *mode     = get_irn_mode(node);
583         ir_node  *block    = transform_node(env, get_nodes_block(node));
584         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
585         ir_node  *nomem    = new_NoMem();
586         ir_node  *new_op1  = transform_node(env, op1);
587         ir_node  *new_op2  = transform_node(env, op2);
588
589         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2, nomem);
590         set_ia32_am_support(new_node, ia32_am_Source);
591         if (is_op_commutative(get_irn_op(node))) {
592                 set_ia32_commutative(new_node);
593         }
594         if (USE_SSE2(env->cg)) {
595                 set_ia32_ls_mode(new_node, mode);
596         }
597
598         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
599
600         return new_node;
601 }
602
603
604 /**
605  * Construct a shift/rotate binary operation, sets AM and immediate if required.
606  *
607  * @param env   The transformation environment
608  * @param op1   The first operand
609  * @param op2   The second operand
610  * @param func  The node constructor function
611  * @return The constructed ia32 node.
612  */
613 static ir_node *gen_shift_binop(ia32_transform_env_t *env, ir_node *node,
614                                 ir_node *op1, ir_node *op2,
615                                 construct_binop_func *func) {
616         ir_node    *new_op  = NULL;
617         dbg_info   *dbgi     = get_irn_dbg_info(node);
618         ir_graph   *irg     = env->irg;
619         ir_node    *block   = transform_node(env, get_nodes_block(node));
620         ir_node    *noreg   = ia32_new_NoReg_gp(env->cg);
621         ir_node    *nomem   = new_NoMem();
622         ir_node    *expr_op;
623         ir_node    *imm_op;
624         ir_node    *new_op1 = transform_node(env, op1);
625         ir_node    *new_op2 = transform_node(env, op2);
626         tarval     *tv;
627
628         assert(! mode_is_float(get_irn_mode(node))
629                  && "Shift/Rotate with float not supported");
630
631         /* Check if immediate optimization is on and */
632         /* if it's an operation with immediate.      */
633         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_op2) : NULL;
634         expr_op = get_expr_op(new_op1, new_op2);
635
636         assert((expr_op || imm_op) && "invalid operands");
637
638         if (!expr_op) {
639                 /* We have two consts here: not yet supported */
640                 imm_op = NULL;
641         }
642
643         /* Limit imm_op within range imm8 */
644         if (imm_op) {
645                 tv = get_ia32_Immop_tarval(imm_op);
646
647                 if (tv) {
648                         tv = tarval_mod(tv, new_tarval_from_long(32, get_tarval_mode(tv)));
649                         set_ia32_Immop_tarval(imm_op, tv);
650                 }
651                 else {
652                         imm_op = NULL;
653                 }
654         }
655
656         /* integer operations */
657         if (imm_op) {
658                 /* This is shift/rot with const */
659                 DB((dbg, LEVEL_1, "Shift/Rot with immediate ..."));
660
661                 new_op = func(dbgi, irg, block, noreg, noreg, expr_op, noreg, nomem);
662                 copy_ia32_Immop_attr(new_op, imm_op);
663         } else {
664                 /* This is a normal shift/rot */
665                 DB((dbg, LEVEL_1, "Shift/Rot binop ..."));
666                 new_op = func(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
667         }
668
669         /* set AM support */
670         set_ia32_am_support(new_op, ia32_am_Dest);
671
672         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
673
674         set_ia32_emit_cl(new_op);
675
676         return new_op;
677 }
678
679
680 /**
681  * Construct a standard unary operation, set AM and immediate if required.
682  *
683  * @param env   The transformation environment
684  * @param op    The operand
685  * @param func  The node constructor function
686  * @return The constructed ia32 node.
687  */
688 static ir_node *gen_unop(ia32_transform_env_t *env, ir_node *node, ir_node *op,
689                          construct_unop_func *func) {
690         ir_node           *new_node = NULL;
691         ir_graph          *irg    = env->irg;
692         dbg_info          *dbgi    = get_irn_dbg_info(node);
693         ir_node           *block  = transform_node(env, get_nodes_block(node));
694         ir_node           *noreg  = ia32_new_NoReg_gp(env->cg);
695         ir_node           *nomem  = new_NoMem();
696         ir_node           *new_op = transform_node(env, op);
697
698         new_node = func(dbgi, irg, block, noreg, noreg, new_op, nomem);
699         DB((dbg, LEVEL_1, "INT unop ..."));
700         set_ia32_am_support(new_node, ia32_am_Dest);
701
702         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env->cg, node));
703
704         return new_node;
705 }
706
707
708 /**
709  * Creates an ia32 Add.
710  *
711  * @param env   The transformation environment
712  * @return the created ia32 Add node
713  */
714 static ir_node *gen_Add(ia32_transform_env_t *env, ir_node *node) {
715         ir_node  *new_op = NULL;
716         ir_graph *irg    = env->irg;
717         dbg_info *dbgi    = get_irn_dbg_info(node);
718         ir_mode  *mode   = get_irn_mode(node);
719         ir_node  *block  = transform_node(env, get_nodes_block(node));
720         ir_node  *noreg  = ia32_new_NoReg_gp(env->cg);
721         ir_node  *nomem  = new_NoMem();
722         ir_node  *expr_op, *imm_op;
723         ir_node  *op1    = get_Add_left(node);
724         ir_node  *op2    = get_Add_right(node);
725         ir_node  *new_op1 = transform_node(env, op1);
726         ir_node  *new_op2 = transform_node(env, op2);
727
728         /* Check if immediate optimization is on and */
729         /* if it's an operation with immediate.      */
730         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(new_op1, new_op2) : NULL;
731         expr_op = get_expr_op(new_op1, new_op2);
732
733         assert((expr_op || imm_op) && "invalid operands");
734
735         if (mode_is_float(mode)) {
736                 FP_USED(env->cg);
737                 if (USE_SSE2(env->cg))
738                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xAdd);
739                 else
740                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfadd);
741         }
742
743         /* integer ADD */
744         if (!expr_op) {
745                 ia32_immop_type_t tp1 = get_ia32_immop_type(new_op1);
746                 ia32_immop_type_t tp2 = get_ia32_immop_type(new_op2);
747
748                 /* No expr_op means, that we have two const - one symconst and */
749                 /* one tarval or another symconst - because this case is not   */
750                 /* covered by constant folding                                 */
751                 /* We need to check for:                                       */
752                 /*  1) symconst + const    -> becomes a LEA                    */
753                 /*  2) symconst + symconst -> becomes a const + LEA as the elf */
754                 /*        linker doesn't support two symconsts                 */
755
756                 if (tp1 == ia32_ImmSymConst && tp2 == ia32_ImmSymConst) {
757                         /* this is the 2nd case */
758                         new_op = new_rd_ia32_Lea(dbgi, irg, block, new_op1, noreg);
759                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
760                         set_ia32_am_flavour(new_op, ia32_am_OB);
761                         set_ia32_am_support(new_op, ia32_am_Source);
762                         set_ia32_op_type(new_op, ia32_AddrModeS);
763
764                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
765                 } else if (tp1 == ia32_ImmSymConst) {
766                         tarval *tv = get_ia32_Immop_tarval(new_op2);
767                         long offs = get_tarval_long(tv);
768
769                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
770                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
771
772                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op1));
773                         add_ia32_am_offs_int(new_op, offs);
774                         set_ia32_am_flavour(new_op, ia32_am_O);
775                         set_ia32_am_support(new_op, ia32_am_Source);
776                         set_ia32_op_type(new_op, ia32_AddrModeS);
777                 } else if (tp2 == ia32_ImmSymConst) {
778                         tarval *tv = get_ia32_Immop_tarval(new_op1);
779                         long offs = get_tarval_long(tv);
780
781                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
782                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
783
784                         add_ia32_am_offs_int(new_op, offs);
785                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
786                         set_ia32_am_flavour(new_op, ia32_am_O);
787                         set_ia32_am_support(new_op, ia32_am_Source);
788                         set_ia32_op_type(new_op, ia32_AddrModeS);
789                 } else {
790                         tarval *tv1 = get_ia32_Immop_tarval(new_op1);
791                         tarval *tv2 = get_ia32_Immop_tarval(new_op2);
792                         tarval *restv = tarval_add(tv1, tv2);
793
794                         DEBUG_ONLY(ir_fprintf(stderr, "Warning: add with 2 consts not folded: %+F\n", node));
795
796                         new_op = new_rd_ia32_Const(dbgi, irg, block);
797                         set_ia32_Const_tarval(new_op, restv);
798                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
799                 }
800
801                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
802                 return new_op;
803         } else if (imm_op) {
804                 if((env->cg->opt & IA32_OPT_INCDEC) && get_ia32_immop_type(imm_op) == ia32_ImmConst) {
805                         tarval_classification_t class_tv, class_negtv;
806                         tarval *tv = get_ia32_Immop_tarval(imm_op);
807
808                         /* optimize tarvals */
809                         class_tv    = classify_tarval(tv);
810                         class_negtv = classify_tarval(tarval_neg(tv));
811
812                         if (class_tv == TV_CLASSIFY_ONE) { /* + 1 == INC */
813                                 DB((dbg, LEVEL_2, "Add(1) to Inc ... "));
814                                 new_op     = new_rd_ia32_Inc(dbgi, irg, block, noreg, noreg, expr_op, nomem);
815                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
816                                 return new_op;
817                         } else if (class_tv == TV_CLASSIFY_ALL_ONE || class_negtv == TV_CLASSIFY_ONE) { /* + (-1) == DEC */
818                                 DB((dbg, LEVEL_2, "Add(-1) to Dec ... "));
819                                 new_op     = new_rd_ia32_Dec(dbgi, irg, block, noreg, noreg, expr_op, nomem);
820                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
821                                 return new_op;
822                         }
823                 }
824         }
825
826         /* This is a normal add */
827         new_op = new_rd_ia32_Add(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
828
829         /* set AM support */
830         set_ia32_am_support(new_op, ia32_am_Full);
831         set_ia32_commutative(new_op);
832
833         fold_immediate(env, new_op, 2, 3);
834
835         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
836
837         return new_op;
838 }
839
840 #if 0
841 static ir_node *create_ia32_Mul(ia32_transform_env_t *env, ir_node *node) {
842         ir_graph *irg = env->irg;
843         dbg_info *dbgi = get_irn_dbg_info(node);
844         ir_node *block = transform_node(env, get_nodes_block(node));
845         ir_node *op1 = get_Mul_left(node);
846         ir_node *op2 = get_Mul_right(node);
847         ir_node *new_op1 = transform_node(env, op1);
848         ir_node *new_op2 = transform_node(env, op2);
849         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
850         ir_node *proj_EAX, *proj_EDX, *res;
851         ir_node *in[1];
852
853         res = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
854         set_ia32_commutative(res);
855         set_ia32_am_support(res, ia32_am_Source);
856
857         /* imediates are not supported, so no fold_immediate */
858         proj_EAX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
859         proj_EDX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
860
861         /* keep EAX */
862         in[0] = proj_EDX;
863         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in);
864
865         return proj_EAX;
866 }
867 #endif
868
869
870 /**
871  * Creates an ia32 Mul.
872  *
873  * @param env   The transformation environment
874  * @return the created ia32 Mul node
875  */
876 static ir_node *gen_Mul(ia32_transform_env_t *env, ir_node *node) {
877         ir_node *op1 = get_Mul_left(node);
878         ir_node *op2 = get_Mul_right(node);
879         ir_mode *mode = get_irn_mode(node);
880
881         if (mode_is_float(mode)) {
882                 FP_USED(env->cg);
883                 if (USE_SSE2(env->cg))
884                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xMul);
885                 else
886                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfmul);
887         }
888
889         // for the lower 32bit of the result it doesn't matter whether we use
890         // signed or unsigned multiplication so we use IMul as it has fewer
891         // constraints
892         return gen_binop(env, node, op1, op2, new_rd_ia32_IMul);
893 }
894
895 /**
896  * Creates an ia32 Mulh.
897  * Note: Mul produces a 64Bit result and Mulh returns the upper 32 bit of
898  * this result while Mul returns the lower 32 bit.
899  *
900  * @param env   The transformation environment
901  * @return the created ia32 Mulh node
902  */
903 static ir_node *gen_Mulh(ia32_transform_env_t *env, ir_node *node) {
904         ir_graph    *irg = env->irg;
905         dbg_info    *dbgi = get_irn_dbg_info(node);
906         ir_node   *block = transform_node(env, get_nodes_block(node));
907         ir_node     *op1 = get_irn_n(node, 0);
908         ir_node     *op2 = get_irn_n(node, 1);
909         ir_node *new_op1 = transform_node(env, op1);
910         ir_node *new_op2 = transform_node(env, op2);
911         ir_node   *noreg = ia32_new_NoReg_gp(env->cg);
912         ir_node *proj_EAX, *proj_EDX, *res;
913         ir_mode *mode = get_irn_mode(node);
914         ir_node *in[1];
915
916         assert(!mode_is_float(mode) && "Mulh with float not supported");
917         if(mode_is_signed(mode)) {
918                 res = new_rd_ia32_IMul1OP(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
919         } else {
920                 res = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_op1, new_op2, new_NoMem());
921         }
922
923         set_ia32_commutative(res);
924         set_ia32_am_support(res, ia32_am_Source);
925
926         set_ia32_am_support(res, ia32_am_Source);
927
928         proj_EAX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
929         proj_EDX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
930
931         /* keep EAX */
932         in[0] = proj_EAX;
933         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, in);
934
935         return proj_EDX;
936 }
937
938
939
940 /**
941  * Creates an ia32 And.
942  *
943  * @param env   The transformation environment
944  * @return The created ia32 And node
945  */
946 static ir_node *gen_And(ia32_transform_env_t *env, ir_node *node) {
947         ir_node *op1 = get_And_left(node);
948         ir_node *op2 = get_And_right(node);
949
950         assert (! mode_is_float(get_irn_mode(node)));
951         return gen_binop(env, node, op1, op2, new_rd_ia32_And);
952 }
953
954
955
956 /**
957  * Creates an ia32 Or.
958  *
959  * @param env   The transformation environment
960  * @return The created ia32 Or node
961  */
962 static ir_node *gen_Or(ia32_transform_env_t *env, ir_node *node) {
963         ir_node *op1 = get_Or_left(node);
964         ir_node *op2 = get_Or_right(node);
965
966         assert (! mode_is_float(get_irn_mode(node)));
967         return gen_binop(env, node, op1, op2, new_rd_ia32_Or);
968 }
969
970
971
972 /**
973  * Creates an ia32 Eor.
974  *
975  * @param env   The transformation environment
976  * @return The created ia32 Eor node
977  */
978 static ir_node *gen_Eor(ia32_transform_env_t *env, ir_node *node) {
979         ir_node *op1 = get_Eor_left(node);
980         ir_node *op2 = get_Eor_right(node);
981
982         assert(! mode_is_float(get_irn_mode(node)));
983         return gen_binop(env, node, op1, op2, new_rd_ia32_Xor);
984 }
985
986
987
988 /**
989  * Creates an ia32 Max.
990  *
991  * @param env      The transformation environment
992  * @return the created ia32 Max node
993  */
994 static ir_node *gen_Max(ia32_transform_env_t *env, ir_node *node) {
995         ir_graph *irg = env->irg;
996         ir_node *new_op;
997         ir_mode *mode = get_irn_mode(node);
998         dbg_info *dbgi = get_irn_dbg_info(node);
999         ir_node *block = transform_node(env, get_nodes_block(node));
1000         ir_node *op1 = get_irn_n(node, 0);
1001         ir_node *op2 = get_irn_n(node, 1);
1002         ir_node *new_op1 = transform_node(env, op1);
1003         ir_node *new_op2 = transform_node(env, op2);
1004         ir_mode *op_mode = get_irn_mode(op1);
1005
1006         assert(get_mode_size_bits(mode) == 32);
1007
1008         if (mode_is_float(mode)) {
1009                 FP_USED(env->cg);
1010                 if (USE_SSE2(env->cg)) {
1011                         new_op = gen_binop_float(env, node, new_op1, new_op2, new_rd_ia32_xMax);
1012                 } else {
1013                         panic("Can't create Max node");
1014                 }
1015         } else {
1016                 long pnc = pn_Cmp_Gt;
1017                 if(!mode_is_signed(op_mode)) {
1018                         pnc |= ia32_pn_Cmp_Unsigned;
1019                 }
1020                 new_op = new_rd_ia32_CmpCMov(dbgi, irg, block, new_op1, new_op2, new_op1, new_op2);
1021                 set_ia32_pncode(new_op, pnc);
1022                 set_ia32_am_support(new_op, ia32_am_None);
1023         }
1024         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1025
1026         return new_op;
1027 }
1028
1029 /**
1030  * Creates an ia32 Min.
1031  *
1032  * @param env      The transformation environment
1033  * @return the created ia32 Min node
1034  */
1035 static ir_node *gen_Min(ia32_transform_env_t *env, ir_node *node) {
1036         ir_graph *irg = env->irg;
1037         ir_node *new_op;
1038         ir_mode *mode = get_irn_mode(node);
1039         dbg_info *dbgi = get_irn_dbg_info(node);
1040         ir_node *block = transform_node(env, get_nodes_block(node));
1041         ir_node *op1 = get_irn_n(node, 0);
1042         ir_node *op2 = get_irn_n(node, 1);
1043         ir_node *new_op1 = transform_node(env, op1);
1044         ir_node *new_op2 = transform_node(env, op2);
1045         ir_mode *op_mode = get_irn_mode(op1);
1046
1047         assert(get_mode_size_bits(mode) == 32);
1048
1049         if (mode_is_float(mode)) {
1050                 FP_USED(env->cg);
1051                 if (USE_SSE2(env->cg)) {
1052                         new_op = gen_binop_float(env, node, op1, op2, new_rd_ia32_xMin);
1053                 } else {
1054                         panic("can't create Min node");
1055                 }
1056         } else {
1057                 long pnc = pn_Cmp_Lt;
1058                 if(!mode_is_signed(op_mode)) {
1059                         pnc |= ia32_pn_Cmp_Unsigned;
1060                 }
1061                 new_op = new_rd_ia32_CmpCMov(dbgi, irg, block, new_op1, new_op2, new_op1, new_op2);
1062                 set_ia32_pncode(new_op, pnc);
1063                 set_ia32_am_support(new_op, ia32_am_None);
1064         }
1065         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1066
1067         return new_op;
1068 }
1069
1070
1071 /**
1072  * Creates an ia32 Sub.
1073  *
1074  * @param env   The transformation environment
1075  * @return The created ia32 Sub node
1076  */
1077 static ir_node *gen_Sub(ia32_transform_env_t *env, ir_node *node) {
1078         ir_node  *new_op = NULL;
1079         ir_graph *irg    = env->irg;
1080         dbg_info *dbgi    = get_irn_dbg_info(node);
1081         ir_mode  *mode   = get_irn_mode(node);
1082         ir_node  *block  = transform_node(env, get_nodes_block(node));
1083         ir_node  *noreg  = ia32_new_NoReg_gp(env->cg);
1084         ir_node  *nomem  = new_NoMem();
1085         ir_node  *op1    = get_Sub_left(node);
1086         ir_node  *op2    = get_Sub_right(node);
1087         ir_node *new_op1 = transform_node(env, op1);
1088         ir_node *new_op2 = transform_node(env, op2);
1089         ir_node  *expr_op, *imm_op;
1090
1091         /* Check if immediate optimization is on and */
1092         /* if it's an operation with immediate.      */
1093         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_op2) : NULL;
1094         expr_op = get_expr_op(new_op1, new_op2);
1095
1096         assert((expr_op || imm_op) && "invalid operands");
1097
1098         if (mode_is_float(mode)) {
1099                 FP_USED(env->cg);
1100                 if (USE_SSE2(env->cg))
1101                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_xSub);
1102                 else
1103                         return gen_binop_float(env, node, op1, op2, new_rd_ia32_vfsub);
1104         }
1105
1106         /* integer SUB */
1107         if (! expr_op) {
1108                 ia32_immop_type_t tp1 = get_ia32_immop_type(new_op1);
1109                 ia32_immop_type_t tp2 = get_ia32_immop_type(new_op2);
1110
1111                 /* No expr_op means, that we have two const - one symconst and */
1112                 /* one tarval or another symconst - because this case is not   */
1113                 /* covered by constant folding                                 */
1114                 /* We need to check for:                                       */
1115                 /*  1) symconst - const    -> becomes a LEA                    */
1116                 /*  2) symconst - symconst -> becomes a const - LEA as the elf */
1117                 /*        linker doesn't support two symconsts                 */
1118                 if (tp1 == ia32_ImmSymConst && tp2 == ia32_ImmSymConst) {
1119                         /* this is the 2nd case */
1120                         new_op = new_rd_ia32_Lea(dbgi, irg, block, new_op1, noreg);
1121                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(op2));
1122                         set_ia32_am_sc_sign(new_op);
1123                         set_ia32_am_flavour(new_op, ia32_am_OB);
1124
1125                         DBG_OPT_LEA3(op1, op2, node, new_op);
1126                 } else if (tp1 == ia32_ImmSymConst) {
1127                         tarval *tv = get_ia32_Immop_tarval(new_op2);
1128                         long offs = get_tarval_long(tv);
1129
1130                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
1131                         DBG_OPT_LEA3(op1, op2, node, new_op);
1132
1133                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op1));
1134                         add_ia32_am_offs_int(new_op, -offs);
1135                         set_ia32_am_flavour(new_op, ia32_am_O);
1136                         set_ia32_am_support(new_op, ia32_am_Source);
1137                         set_ia32_op_type(new_op, ia32_AddrModeS);
1138                 } else if (tp2 == ia32_ImmSymConst) {
1139                         tarval *tv = get_ia32_Immop_tarval(new_op1);
1140                         long offs = get_tarval_long(tv);
1141
1142                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
1143                         DBG_OPT_LEA3(op1, op2, node, new_op);
1144
1145                         add_ia32_am_offs_int(new_op, offs);
1146                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
1147                         set_ia32_am_sc_sign(new_op);
1148                         set_ia32_am_flavour(new_op, ia32_am_O);
1149                         set_ia32_am_support(new_op, ia32_am_Source);
1150                         set_ia32_op_type(new_op, ia32_AddrModeS);
1151                 } else {
1152                         tarval *tv1 = get_ia32_Immop_tarval(new_op1);
1153                         tarval *tv2 = get_ia32_Immop_tarval(new_op2);
1154                         tarval *restv = tarval_sub(tv1, tv2);
1155
1156                         DEBUG_ONLY(ir_fprintf(stderr, "Warning: sub with 2 consts not folded: %+F\n", node));
1157
1158                         new_op = new_rd_ia32_Const(dbgi, irg, block);
1159                         set_ia32_Const_tarval(new_op, restv);
1160                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
1161                 }
1162
1163                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1164                 return new_op;
1165         } else if (imm_op) {
1166                 if((env->cg->opt & IA32_OPT_INCDEC) && get_ia32_immop_type(imm_op) == ia32_ImmConst) {
1167                         tarval_classification_t class_tv, class_negtv;
1168                         tarval *tv = get_ia32_Immop_tarval(imm_op);
1169
1170                         /* optimize tarvals */
1171                         class_tv    = classify_tarval(tv);
1172                         class_negtv = classify_tarval(tarval_neg(tv));
1173
1174                         if (class_tv == TV_CLASSIFY_ONE) {
1175                                 DB((dbg, LEVEL_2, "Sub(1) to Dec ... "));
1176                                 new_op     = new_rd_ia32_Dec(dbgi, irg, block, noreg, noreg, expr_op, nomem);
1177                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1178                                 return new_op;
1179                         } else if (class_tv == TV_CLASSIFY_ALL_ONE || class_negtv == TV_CLASSIFY_ONE) {
1180                                 DB((dbg, LEVEL_2, "Sub(-1) to Inc ... "));
1181                                 new_op     = new_rd_ia32_Inc(dbgi, irg, block, noreg, noreg, expr_op, nomem);
1182                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1183                                 return new_op;
1184                         }
1185                 }
1186         }
1187
1188         /* This is a normal sub */
1189         new_op = new_rd_ia32_Sub(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1190
1191         /* set AM support */
1192         set_ia32_am_support(new_op, ia32_am_Full);
1193
1194         fold_immediate(env, new_op, 2, 3);
1195
1196         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1197
1198         return new_op;
1199 }
1200
1201
1202
1203 /**
1204  * Generates an ia32 DivMod with additional infrastructure for the
1205  * register allocator if needed.
1206  *
1207  * @param env      The transformation environment
1208  * @param dividend -no comment- :)
1209  * @param divisor  -no comment- :)
1210  * @param dm_flav  flavour_Div/Mod/DivMod
1211  * @return The created ia32 DivMod node
1212  */
1213 static ir_node *generate_DivMod(ia32_transform_env_t *env, ir_node *node,
1214                                 ir_node *dividend, ir_node *divisor,
1215                                 ia32_op_flavour_t dm_flav) {
1216         ir_graph *irg   = env->irg;
1217         dbg_info *dbgi   = get_irn_dbg_info(node);
1218         ir_mode  *mode  = get_irn_mode(node);
1219         ir_node  *block = transform_node(env, get_nodes_block(node));
1220         ir_node  *res, *proj_div, *proj_mod;
1221         ir_node  *edx_node, *cltd;
1222         ir_node  *in_keep[2];
1223         ir_node  *mem, *new_mem;
1224         ir_node  *projs[pn_DivMod_max];
1225         ir_node  *noreg = ia32_new_NoReg_gp(env->cg);
1226         ir_node  *new_dividend = transform_node(env, dividend);
1227         ir_node  *new_divisor = transform_node(env, divisor);
1228         int       i;
1229
1230         ia32_collect_Projs(node, projs, pn_DivMod_max);
1231
1232         switch (dm_flav) {
1233                 case flavour_Div:
1234                         mem  = get_Div_mem(node);
1235                         proj_div = be_get_Proj_for_pn(node, pn_Div_res);
1236                         if(proj_div == NULL) {
1237                                 /* this can happen when we have divs left that could
1238                                    throw a division by zero exception... */
1239                                 mode = mode_Is;
1240                         } else {
1241                                 mode = get_irn_mode(proj_div);
1242                         }
1243                         break;
1244                 case flavour_Mod:
1245                         mem  = get_Mod_mem(node);
1246                         proj_mod = be_get_Proj_for_pn(node, pn_Mod_res);
1247                         if(proj_mod == NULL) {
1248                                 /* this can happen when we have divs left that could
1249                                    throw a division by zero exception... */
1250                                 mode = mode_Is;
1251                         } else {
1252                                 mode = get_irn_mode(proj_mod);
1253                         }
1254                         break;
1255                 case flavour_DivMod:
1256                         mem      = get_DivMod_mem(node);
1257                         proj_div = be_get_Proj_for_pn(node, pn_DivMod_res_div);
1258                         proj_mod = be_get_Proj_for_pn(node, pn_DivMod_res_mod);
1259                         if(proj_div != NULL) {
1260                                 mode = get_irn_mode(proj_div);
1261                         } else if(proj_mod != NULL) {
1262                                 mode = get_irn_mode(proj_mod);
1263                         } else {
1264                                 /* this can happen when we have divs left that could
1265                                    throw a division by zero exception... */
1266                                 mode = mode_Is;
1267                         }
1268                         break;
1269                 default:
1270                         panic("invalid divmod flavour!");
1271         }
1272         new_mem = transform_node(env, mem);
1273
1274         if (mode_is_signed(mode)) {
1275                 /* in signed mode, we need to sign extend the dividend */
1276                 cltd     = new_rd_ia32_Cltd(dbgi, irg, block, new_dividend);
1277                 new_dividend = new_rd_Proj(dbgi, irg, block, cltd, mode_Iu, pn_ia32_Cltd_EAX);
1278                 edx_node = new_rd_Proj(dbgi, irg, block, cltd, mode_Iu, pn_ia32_Cltd_EDX);
1279         } else {
1280                 edx_node = new_rd_ia32_Const(dbgi, irg, block);
1281                 add_irn_dep(edx_node, be_abi_get_start_barrier(env->cg->birg->abi));
1282                 set_ia32_Immop_tarval(edx_node, get_tarval_null(mode_Iu));
1283         }
1284
1285         if(mode_is_signed(mode)) {
1286                 res = new_rd_ia32_IDiv(dbgi, irg, block, noreg, noreg, new_dividend, edx_node, new_divisor, new_mem, dm_flav);
1287         } else {
1288                 res = new_rd_ia32_Div(dbgi, irg, block, noreg, noreg, new_dividend, edx_node, new_divisor, new_mem, dm_flav);
1289         }
1290
1291         /* Matze: code can't handle this at the moment... */
1292 #if 0
1293         /* set AM support */
1294         set_ia32_am_support(res, ia32_am_Source);
1295 #endif
1296
1297         set_ia32_n_res(res, 2);
1298
1299         /* check, which Proj-Keep, we need to add */
1300         i = 0;
1301         if (proj_div == NULL) {
1302                 /* We have only mod result: add div res Proj-Keep */
1303                 in_keep[i] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_div_res);
1304                 ++i;
1305         }
1306         if (proj_mod == NULL) {
1307                 /* We have only div result: add mod res Proj-Keep */
1308                 in_keep[i] = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_ia32_Div_mod_res);
1309                 ++i;
1310         }
1311         if(i > 0)
1312                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, i, in_keep);
1313
1314         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1315
1316         return res;
1317 }
1318
1319
1320 /**
1321  * Wrapper for generate_DivMod. Sets flavour_Mod.
1322  *
1323  * @param env      The transformation environment
1324  */
1325 static ir_node *gen_Mod(ia32_transform_env_t *env, ir_node *node) {
1326         return generate_DivMod(env, node, get_Mod_left(node),
1327                                get_Mod_right(node), flavour_Mod);
1328 }
1329
1330 /**
1331  * Wrapper for generate_DivMod. Sets flavour_Div.
1332  *
1333  * @param env      The transformation environment
1334  */
1335 static ir_node *gen_Div(ia32_transform_env_t *env, ir_node *node) {
1336         return generate_DivMod(env, node, get_Div_left(node),
1337                                get_Div_right(node), flavour_Div);
1338 }
1339
1340 /**
1341  * Wrapper for generate_DivMod. Sets flavour_DivMod.
1342  */
1343 static ir_node *gen_DivMod(ia32_transform_env_t *env, ir_node *node) {
1344         return generate_DivMod(env, node, get_DivMod_left(node),
1345                                get_DivMod_right(node), flavour_DivMod);
1346 }
1347
1348
1349
1350 /**
1351  * Creates an ia32 floating Div.
1352  *
1353  * @param env   The transformation environment
1354  * @return The created ia32 xDiv node
1355  */
1356 static ir_node *gen_Quot(ia32_transform_env_t *env, ir_node *node) {
1357         ir_graph *irg = env->irg;
1358         dbg_info *dbgi = get_irn_dbg_info(node);
1359         ir_node *block = transform_node(env, get_nodes_block(node));
1360         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
1361         ir_node *new_op;
1362         ir_node *nomem = new_rd_NoMem(env->irg);
1363         ir_node *op1   = get_Quot_left(node);
1364         ir_node *op2   = get_Quot_right(node);
1365         ir_node *new_op1 = transform_node(env, op1);
1366         ir_node *new_op2 = transform_node(env, op2);
1367
1368         FP_USED(env->cg);
1369         if (USE_SSE2(env->cg)) {
1370                 ir_mode *mode = get_irn_mode(op1);
1371                 if (is_ia32_xConst(new_op2)) {
1372                         new_op = new_rd_ia32_xDiv(dbgi, irg, block, noreg, noreg, new_op1, noreg, nomem);
1373                         set_ia32_am_support(new_op, ia32_am_None);
1374                         copy_ia32_Immop_attr(new_op, new_op2);
1375                 } else {
1376                         new_op = new_rd_ia32_xDiv(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1377                         // Matze: disabled for now, spillslot coalescer fails
1378                         //set_ia32_am_support(new_op, ia32_am_Source);
1379                 }
1380                 set_ia32_ls_mode(new_op, mode);
1381         } else {
1382                 new_op = new_rd_ia32_vfdiv(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1383                 // Matze: disabled for now (spillslot coalescer fails)
1384                 //set_ia32_am_support(new_op, ia32_am_Source);
1385         }
1386         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1387         return new_op;
1388 }
1389
1390
1391 /**
1392  * Creates an ia32 Shl.
1393  *
1394  * @param env   The transformation environment
1395  * @return The created ia32 Shl node
1396  */
1397 static ir_node *gen_Shl(ia32_transform_env_t *env, ir_node *node) {
1398         return gen_shift_binop(env, node, get_Shl_left(node), get_Shl_right(node),
1399                                new_rd_ia32_Shl);
1400 }
1401
1402
1403
1404 /**
1405  * Creates an ia32 Shr.
1406  *
1407  * @param env   The transformation environment
1408  * @return The created ia32 Shr node
1409  */
1410 static ir_node *gen_Shr(ia32_transform_env_t *env, ir_node *node) {
1411         return gen_shift_binop(env, node, get_Shr_left(node),
1412                                get_Shr_right(node), new_rd_ia32_Shr);
1413 }
1414
1415
1416
1417 /**
1418  * Creates an ia32 Sar.
1419  *
1420  * @param env   The transformation environment
1421  * @return The created ia32 Shrs node
1422  */
1423 static ir_node *gen_Shrs(ia32_transform_env_t *env, ir_node *node) {
1424         return gen_shift_binop(env, node, get_Shrs_left(node),
1425                                get_Shrs_right(node), new_rd_ia32_Sar);
1426 }
1427
1428
1429
1430 /**
1431  * Creates an ia32 RotL.
1432  *
1433  * @param env   The transformation environment
1434  * @param op1   The first operator
1435  * @param op2   The second operator
1436  * @return The created ia32 RotL node
1437  */
1438 static ir_node *gen_RotL(ia32_transform_env_t *env, ir_node *node,
1439                          ir_node *op1, ir_node *op2) {
1440         return gen_shift_binop(env, node, op1, op2, new_rd_ia32_Rol);
1441 }
1442
1443
1444
1445 /**
1446  * Creates an ia32 RotR.
1447  * NOTE: There is no RotR with immediate because this would always be a RotL
1448  *       "imm-mode_size_bits" which can be pre-calculated.
1449  *
1450  * @param env   The transformation environment
1451  * @param op1   The first operator
1452  * @param op2   The second operator
1453  * @return The created ia32 RotR node
1454  */
1455 static ir_node *gen_RotR(ia32_transform_env_t *env, ir_node *node, ir_node *op1,
1456                          ir_node *op2) {
1457         return gen_shift_binop(env, node, op1, op2, new_rd_ia32_Ror);
1458 }
1459
1460
1461
1462 /**
1463  * Creates an ia32 RotR or RotL (depending on the found pattern).
1464  *
1465  * @param env   The transformation environment
1466  * @return The created ia32 RotL or RotR node
1467  */
1468 static ir_node *gen_Rot(ia32_transform_env_t *env, ir_node *node) {
1469         ir_node *rotate = NULL;
1470         ir_node *op1    = get_Rot_left(node);
1471         ir_node *op2    = get_Rot_right(node);
1472
1473         /* Firm has only Rot (which is a RotL), so we are looking for a right (op2)
1474                  operand "-e+mode_size_bits" (it's an already modified "mode_size_bits-e",
1475                  that means we can create a RotR instead of an Add and a RotL */
1476
1477         if (get_irn_op(op2) == op_Add) {
1478                 ir_node *add = op2;
1479                 ir_node *left = get_Add_left(add);
1480                 ir_node *right = get_Add_right(add);
1481                 if (is_Const(right)) {
1482                         tarval  *tv        = get_Const_tarval(right);
1483                         ir_mode *mode      = get_irn_mode(node);
1484                         long     bits      = get_mode_size_bits(mode);
1485
1486                         if (get_irn_op(left) == op_Minus &&
1487                                         tarval_is_long(tv)       &&
1488                                         get_tarval_long(tv) == bits)
1489                         {
1490                                 DB((dbg, LEVEL_1, "RotL into RotR ... "));
1491                                 rotate = gen_RotR(env, node, op1, get_Minus_op(left));
1492                         }
1493                 }
1494         }
1495
1496         if (rotate == NULL) {
1497                 rotate = gen_RotL(env, node, op1, op2);
1498         }
1499
1500         return rotate;
1501 }
1502
1503
1504
1505 /**
1506  * Transforms a Minus node.
1507  *
1508  * @param env   The transformation environment
1509  * @param op    The Minus operand
1510  * @return The created ia32 Minus node
1511  */
1512 ir_node *gen_Minus_ex(ia32_transform_env_t *env, ir_node *node, ir_node *op) {
1513         ir_entity *ent;
1514         ir_node   *res;
1515         ir_graph  *irg   = env->irg;
1516         dbg_info  *dbgi  = get_irn_dbg_info(node);
1517         ir_node   *block = transform_node(env, get_nodes_block(node));
1518         ir_mode   *mode  = get_irn_mode(node);
1519         int        size;
1520
1521         if (mode_is_float(mode)) {
1522                 ir_node *new_op = transform_node(env, op);
1523                 FP_USED(env->cg);
1524                 if (USE_SSE2(env->cg)) {
1525                         ir_node *noreg_gp = ia32_new_NoReg_gp(env->cg);
1526                         ir_node *noreg_fp = ia32_new_NoReg_fp(env->cg);
1527                         ir_node *nomem    = new_rd_NoMem(irg);
1528
1529                         res = new_rd_ia32_xXor(dbgi, irg, block, noreg_gp, noreg_gp, new_op, noreg_fp, nomem);
1530
1531                         size   = get_mode_size_bits(mode);
1532                         ent    = ia32_gen_fp_known_const(size == 32 ? ia32_SSIGN : ia32_DSIGN);
1533
1534                         set_ia32_am_sc(res, ent);
1535                         set_ia32_op_type(res, ia32_AddrModeS);
1536                         set_ia32_ls_mode(res, mode);
1537                 } else {
1538                         res = new_rd_ia32_vfchs(dbgi, irg, block, new_op);
1539                 }
1540         } else {
1541                 res = gen_unop(env, node, op, new_rd_ia32_Neg);
1542         }
1543
1544         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1545
1546         return res;
1547 }
1548
1549 /**
1550  * Transforms a Minus node.
1551  *
1552  * @param env   The transformation environment
1553  * @return The created ia32 Minus node
1554  */
1555 static ir_node *gen_Minus(ia32_transform_env_t *env, ir_node *node) {
1556         return gen_Minus_ex(env, node, get_Minus_op(node));
1557 }
1558
1559
1560 /**
1561  * Transforms a Not node.
1562  *
1563  * @param env   The transformation environment
1564  * @return The created ia32 Not node
1565  */
1566 static ir_node *gen_Not(ia32_transform_env_t *env, ir_node *node) {
1567         ir_node *op = get_Not_op(node);
1568
1569         assert (! mode_is_float(get_irn_mode(node)));
1570         return gen_unop(env, node, op, new_rd_ia32_Not);
1571 }
1572
1573
1574
1575 /**
1576  * Transforms an Abs node.
1577  *
1578  * @param env   The transformation environment
1579  * @return The created ia32 Abs node
1580  */
1581 static ir_node *gen_Abs(ia32_transform_env_t *env, ir_node *node) {
1582         ir_node  *res, *p_eax, *p_edx;
1583         ir_graph *irg      = env->irg;
1584         dbg_info *dbgi      = get_irn_dbg_info(node);
1585         ir_node  *block    = transform_node(env, get_nodes_block(node));
1586         ir_mode  *mode     = get_irn_mode(node);
1587         ir_node  *noreg_gp = ia32_new_NoReg_gp(env->cg);
1588         ir_node  *noreg_fp = ia32_new_NoReg_fp(env->cg);
1589         ir_node  *nomem    = new_NoMem();
1590         ir_node  *op       = get_Abs_op(node);
1591         ir_node  *new_op   = transform_node(env, op);
1592         int       size;
1593         ir_entity *ent;
1594
1595         if (mode_is_float(mode)) {
1596                 FP_USED(env->cg);
1597                 if (USE_SSE2(env->cg)) {
1598                         res = new_rd_ia32_xAnd(dbgi,irg, block, noreg_gp, noreg_gp, new_op, noreg_fp, nomem);
1599
1600                         size = get_mode_size_bits(mode);
1601                         ent  = ia32_gen_fp_known_const(size == 32 ? ia32_SABS : ia32_DABS);
1602
1603                         set_ia32_am_sc(res, ent);
1604
1605                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1606
1607                         set_ia32_op_type(res, ia32_AddrModeS);
1608                         set_ia32_ls_mode(res, mode);
1609                 }
1610                 else {
1611                         res = new_rd_ia32_vfabs(dbgi, irg, block, new_op);
1612                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1613                 }
1614         }
1615         else {
1616                 res   = new_rd_ia32_Cltd(dbgi, irg, block, new_op);
1617                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1618
1619                 p_eax = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EAX);
1620                 p_edx = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
1621
1622                 res   = new_rd_ia32_Xor(dbgi, irg, block, noreg_gp, noreg_gp, p_eax, p_edx, nomem);
1623                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1624
1625                 res   = new_rd_ia32_Sub(dbgi, irg, block, noreg_gp, noreg_gp, res, p_edx, nomem);
1626                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1627         }
1628
1629         return res;
1630 }
1631
1632
1633
1634 /**
1635  * Transforms a Load.
1636  *
1637  * @param env   The transformation environment
1638  * @return the created ia32 Load node
1639  */
1640 static ir_node *gen_Load(ia32_transform_env_t *env, ir_node *node) {
1641         ir_graph *irg  = env->irg;
1642         dbg_info *dbgi  = get_irn_dbg_info(node);
1643         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
1644         ir_mode *mode  = get_Load_mode(node);
1645         ir_node *block = transform_node(env, get_nodes_block(node));
1646         ir_node *ptr   = get_Load_ptr(node);
1647         ir_node *new_ptr = transform_node(env, ptr);
1648         ir_node *lptr  = new_ptr;
1649         ir_node *mem   = get_Load_mem(node);
1650         ir_node *new_mem = transform_node(env, mem);
1651         int     is_imm = 0;
1652         ir_node *new_op;
1653         ia32_am_flavour_t am_flav = ia32_am_B;
1654         ir_node *projs[pn_Load_max];
1655
1656         ia32_collect_Projs(node, projs, pn_Load_max);
1657
1658         /*
1659                 check for special case: the loaded value might not be used (optimized, volatile, ...)
1660                 we add a Proj + Keep for volatile loads and ignore all other cases
1661         */
1662         if (! be_get_Proj_for_pn(node, pn_Load_res) && get_Load_volatility(node) == volatility_is_volatile) {
1663                 /* add a result proj and a Keep to produce a pseudo use */
1664                 ir_node *proj = new_r_Proj(irg, block, node, mode_Iu, pn_ia32_Load_res);
1665                 be_new_Keep(arch_get_irn_reg_class(env->cg->arch_env, proj, -1), irg, block, 1, &proj);
1666         }
1667
1668         /* address might be a constant (symconst or absolute address) */
1669         if (is_ia32_Const(new_ptr)) {
1670                 lptr   = noreg;
1671                 is_imm = 1;
1672         }
1673
1674         if (mode_is_float(mode)) {
1675                 FP_USED(env->cg);
1676                 if (USE_SSE2(env->cg)) {
1677                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, lptr, noreg, new_mem);
1678                 } else {
1679                         new_op = new_rd_ia32_vfld(dbgi, irg, block, lptr, noreg, new_mem);
1680                 }
1681         } else {
1682                 new_op = new_rd_ia32_Load(dbgi, irg, block, lptr, noreg, new_mem);
1683         }
1684
1685         /* base is a constant address */
1686         if (is_imm) {
1687                 if (get_ia32_immop_type(new_ptr) == ia32_ImmSymConst) {
1688                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_ptr));
1689                         am_flav = ia32_am_N;
1690                 } else {
1691                         tarval *tv = get_ia32_Immop_tarval(new_ptr);
1692                         long offs = get_tarval_long(tv);
1693
1694                         add_ia32_am_offs_int(new_op, offs);
1695                         am_flav = ia32_am_O;
1696                 }
1697         }
1698
1699         set_ia32_am_support(new_op, ia32_am_Source);
1700         set_ia32_op_type(new_op, ia32_AddrModeS);
1701         set_ia32_am_flavour(new_op, am_flav);
1702         set_ia32_ls_mode(new_op, mode);
1703
1704         /* make sure we are scheduled behind the intial IncSP/Barrier
1705          * to avoid spills being placed before it
1706          */
1707         if(block == get_irg_start_block(irg)) {
1708                 add_irn_dep(new_op, get_irg_frame(irg));
1709         }
1710
1711         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1712
1713         return new_op;
1714 }
1715
1716
1717
1718 /**
1719  * Transforms a Store.
1720  *
1721  * @param env   The transformation environment
1722  * @return the created ia32 Store node
1723  */
1724 static ir_node *gen_Store(ia32_transform_env_t *env, ir_node *node) {
1725         ir_graph *irg    = env->irg;
1726         dbg_info *dbgi    = get_irn_dbg_info(node);
1727         ir_node *block   = transform_node(env, get_nodes_block(node));
1728         ir_node *noreg   = ia32_new_NoReg_gp(env->cg);
1729         ir_node *ptr     = get_Store_ptr(node);
1730         ir_node *new_ptr = transform_node(env, ptr);
1731         ir_node *sptr    = new_ptr;
1732         ir_node *val     = get_Store_value(node);
1733         ir_node *new_val = transform_node(env, val);
1734         ir_node *mem     = get_Store_mem(node);
1735         ir_node *new_mem = transform_node(env, mem);
1736         ir_mode *mode    = get_irn_mode(val);
1737         ir_node *sval    = new_val;
1738         int      is_imm  = 0;
1739         ir_node *new_op;
1740         ia32_am_flavour_t am_flav = ia32_am_B;
1741
1742         if (is_ia32_Const(new_val)) {
1743                 assert(!mode_is_float(mode));
1744                 sval = noreg;
1745         }
1746
1747         /* address might be a constant (symconst or absolute address) */
1748         if (is_ia32_Const(new_ptr)) {
1749                 sptr   = noreg;
1750                 is_imm = 1;
1751         }
1752
1753         if (mode_is_float(mode)) {
1754                 FP_USED(env->cg);
1755                 if (USE_SSE2(env->cg)) {
1756                         new_op = new_rd_ia32_xStore(dbgi, irg, block, sptr, noreg, sval, new_mem);
1757                 } else {
1758                         new_op = new_rd_ia32_vfst(dbgi, irg, block, sptr, noreg, sval, new_mem);
1759                 }
1760         } else if (get_mode_size_bits(mode) == 8) {
1761                 new_op = new_rd_ia32_Store8Bit(dbgi, irg, block, sptr, noreg, sval, new_mem);
1762         } else {
1763                 new_op = new_rd_ia32_Store(dbgi, irg, block, sptr, noreg, sval, new_mem);
1764         }
1765
1766         /* stored const is an immediate value */
1767         if (is_ia32_Const(new_val)) {
1768                 assert(!mode_is_float(mode));
1769                 copy_ia32_Immop_attr(new_op, new_val);
1770         }
1771
1772         /* base is an constant address */
1773         if (is_imm) {
1774                 if (get_ia32_immop_type(new_ptr) == ia32_ImmSymConst) {
1775                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_ptr));
1776                         am_flav = ia32_am_N;
1777                 } else {
1778                         tarval *tv = get_ia32_Immop_tarval(new_ptr);
1779                         long offs = get_tarval_long(tv);
1780
1781                         add_ia32_am_offs_int(new_op, offs);
1782                         am_flav = ia32_am_O;
1783                 }
1784         }
1785
1786         set_ia32_am_support(new_op, ia32_am_Dest);
1787         set_ia32_op_type(new_op, ia32_AddrModeD);
1788         set_ia32_am_flavour(new_op, am_flav);
1789         set_ia32_ls_mode(new_op, mode);
1790
1791         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
1792
1793         return new_op;
1794 }
1795
1796
1797
1798 /**
1799  * Transforms a Cond -> Proj[b] -> Cmp into a CondJmp, CondJmp_i or TestJmp
1800  *
1801  * @param env   The transformation environment
1802  * @return The transformed node.
1803  */
1804 static ir_node *gen_Cond(ia32_transform_env_t *env, ir_node *node) {
1805         ir_graph *irg      = env->irg;
1806         dbg_info *dbgi      = get_irn_dbg_info(node);
1807         ir_node  *block    = transform_node(env, get_nodes_block(node));
1808         ir_node  *sel      = get_Cond_selector(node);
1809         ir_mode  *sel_mode = get_irn_mode(sel);
1810         ir_node  *res      = NULL;
1811         ir_node  *noreg    = ia32_new_NoReg_gp(env->cg);
1812         ir_node  *cnst, *expr;
1813
1814         if (is_Proj(sel) && sel_mode == mode_b) {
1815                 ir_node *nomem = new_NoMem();
1816                 ir_node *pred = get_Proj_pred(sel);
1817                 ir_node *cmp_a = get_Cmp_left(pred);
1818                 ir_node *new_cmp_a = transform_node(env, cmp_a);
1819                 ir_node *cmp_b = get_Cmp_right(pred);
1820                 ir_node *new_cmp_b = transform_node(env, cmp_b);
1821                 ir_mode *cmp_mode = get_irn_mode(cmp_a);
1822
1823                 int pnc = get_Proj_proj(sel);
1824                 if(mode_is_float(cmp_mode) || !mode_is_signed(cmp_mode)) {
1825                         pnc |= ia32_pn_Cmp_Unsigned;
1826                 }
1827
1828                 /* check if we can use a CondJmp with immediate */
1829                 cnst = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(new_cmp_a, new_cmp_b) : NULL;
1830                 expr = get_expr_op(new_cmp_a, new_cmp_b);
1831
1832                 if (cnst != NULL && expr != NULL) {
1833                         /* immop has to be the right operand, we might need to flip pnc */
1834                         if(cnst != new_cmp_b) {
1835                                 pnc = get_inversed_pnc(pnc);
1836                         }
1837
1838                         if ((pnc == pn_Cmp_Eq || pnc == pn_Cmp_Lg) && mode_needs_gp_reg(get_irn_mode(expr))) {
1839                                 if (get_ia32_immop_type(cnst) == ia32_ImmConst &&
1840                                         classify_tarval(get_ia32_Immop_tarval(cnst)) == TV_CLASSIFY_NULL)
1841                                 {
1842                                         /* a Cmp A =/!= 0 */
1843                                         ir_node    *op1  = expr;
1844                                         ir_node    *op2  = expr;
1845                                         int is_and = 0;
1846
1847                                         /* check, if expr is an only once used And operation */
1848                                         if (is_ia32_And(expr) && get_irn_n_edges(expr)) {
1849                                                 op1 = get_irn_n(expr, 2);
1850                                                 op2 = get_irn_n(expr, 3);
1851
1852                                                 is_and = (is_ia32_ImmConst(expr) || is_ia32_ImmSymConst(expr));
1853                                         }
1854                                         res = new_rd_ia32_TestJmp(dbgi, irg, block, op1, op2);
1855                                         set_ia32_pncode(res, pnc);
1856
1857                                         if (is_and) {
1858                                                 copy_ia32_Immop_attr(res, expr);
1859                                         }
1860
1861                                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1862                                         return res;
1863                                 }
1864                         }
1865
1866                         if (mode_is_float(cmp_mode)) {
1867                                 FP_USED(env->cg);
1868                                 if (USE_SSE2(env->cg)) {
1869                                         res = new_rd_ia32_xCondJmp(dbgi, irg, block, noreg, noreg, expr, noreg, nomem);
1870                                         set_ia32_ls_mode(res, cmp_mode);
1871                                 } else {
1872                                         assert(0);
1873                                 }
1874                         }
1875                         else {
1876                                 res = new_rd_ia32_CondJmp(dbgi, irg, block, noreg, noreg, expr, noreg, nomem);
1877                         }
1878                         copy_ia32_Immop_attr(res, cnst);
1879                 }
1880                 else {
1881                         ir_mode *cmp_mode = get_irn_mode(cmp_a);
1882
1883                         if (mode_is_float(cmp_mode)) {
1884                                 FP_USED(env->cg);
1885                                 if (USE_SSE2(env->cg)) {
1886                                         res = new_rd_ia32_xCondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1887                                         set_ia32_ls_mode(res, cmp_mode);
1888                                 } else {
1889                                         ir_node *proj_eax;
1890                                         res = new_rd_ia32_vfCondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1891                                         proj_eax = new_r_Proj(irg, block, res, mode_Iu, pn_ia32_vfCondJmp_temp_reg_eax);
1892                                         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 1, &proj_eax);
1893                                 }
1894                         }
1895                         else {
1896                                 res = new_rd_ia32_CondJmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
1897                                 set_ia32_commutative(res);
1898                         }
1899                 }
1900
1901                 set_ia32_pncode(res, pnc);
1902                 // Matze: disabled for now, because the default collect_spills_walker
1903                 // is not able to detect the mode of the spilled value
1904                 // moreover, the lea optimize phase freely exchanges left/right
1905                 // without updating the pnc
1906                 //set_ia32_am_support(res, ia32_am_Source);
1907         }
1908         else {
1909                 /* determine the smallest switch case value */
1910                 int switch_min = INT_MAX;
1911                 const ir_edge_t *edge;
1912                 ir_node *new_sel = transform_node(env, sel);
1913
1914                 foreach_out_edge(node, edge) {
1915                         int pn = get_Proj_proj(get_edge_src_irn(edge));
1916                         switch_min = pn < switch_min ? pn : switch_min;
1917                 }
1918
1919                 if (switch_min) {
1920                         /* if smallest switch case is not 0 we need an additional sub */
1921                         res = new_rd_ia32_Lea(dbgi, irg, block, new_sel, noreg);
1922                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1923                         add_ia32_am_offs_int(res, -switch_min);
1924                         set_ia32_am_flavour(res, ia32_am_OB);
1925                         set_ia32_am_support(res, ia32_am_Source);
1926                         set_ia32_op_type(res, ia32_AddrModeS);
1927                 }
1928
1929                 res = new_rd_ia32_SwitchJmp(dbgi, irg, block, switch_min ? res : new_sel, mode_T);
1930                 set_ia32_pncode(res, get_Cond_defaultProj(node));
1931         }
1932
1933         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1934         return res;
1935 }
1936
1937
1938
1939 /**
1940  * Transforms a CopyB node.
1941  *
1942  * @param env   The transformation environment
1943  * @return The transformed node.
1944  */
1945 static ir_node *gen_CopyB(ia32_transform_env_t *env, ir_node *node) {
1946         ir_node  *res      = NULL;
1947         ir_graph *irg      = env->irg;
1948         dbg_info *dbgi      = get_irn_dbg_info(node);
1949         ir_node  *block    = transform_node(env, get_nodes_block(node));
1950         ir_node  *src      = get_CopyB_src(node);
1951         ir_node  *new_src  = transform_node(env, src);
1952         ir_node  *dst      = get_CopyB_dst(node);
1953         ir_node  *new_dst  = transform_node(env, dst);
1954         ir_node  *mem      = get_CopyB_mem(node);
1955         ir_node  *new_mem  = transform_node(env, mem);
1956         int      size      = get_type_size_bytes(get_CopyB_type(node));
1957         ir_mode  *dst_mode = get_irn_mode(dst);
1958         ir_mode  *src_mode = get_irn_mode(src);
1959         int      rem;
1960         ir_node  *in[3];
1961
1962         /* If we have to copy more than 32 bytes, we use REP MOVSx and */
1963         /* then we need the size explicitly in ECX.                    */
1964         if (size >= 32 * 4) {
1965                 rem = size & 0x3; /* size % 4 */
1966                 size >>= 2;
1967
1968                 res = new_rd_ia32_Const(dbgi, irg, block);
1969                 add_irn_dep(res, be_abi_get_start_barrier(env->cg->birg->abi));
1970                 set_ia32_Immop_tarval(res, new_tarval_from_long(size, mode_Is));
1971
1972                 res = new_rd_ia32_CopyB(dbgi, irg, block, new_dst, new_src, res, new_mem);
1973                 set_ia32_Immop_tarval(res, new_tarval_from_long(rem, mode_Is));
1974
1975                 /* ok: now attach Proj's because rep movsd will destroy esi, edi and ecx */
1976                 in[0] = new_r_Proj(irg, block, res, dst_mode, pn_ia32_CopyB_DST);
1977                 in[1] = new_r_Proj(irg, block, res, src_mode, pn_ia32_CopyB_SRC);
1978                 in[2] = new_r_Proj(irg, block, res, mode_Iu, pn_ia32_CopyB_CNT);
1979                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 3, in);
1980         }
1981         else {
1982                 res = new_rd_ia32_CopyB_i(dbgi, irg, block, new_dst, new_src, new_mem);
1983                 set_ia32_Immop_tarval(res, new_tarval_from_long(size, mode_Is));
1984
1985                 /* ok: now attach Proj's because movsd will destroy esi and edi */
1986                 in[0] = new_r_Proj(irg, block, res, dst_mode, pn_ia32_CopyB_i_DST);
1987                 in[1] = new_r_Proj(irg, block, res, src_mode, pn_ia32_CopyB_i_SRC);
1988                 be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 2, in);
1989         }
1990
1991         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
1992
1993         return res;
1994 }
1995
1996
1997 #if 0
1998 /**
1999  * Transforms a Mux node into CMov.
2000  *
2001  * @param env   The transformation environment
2002  * @return The transformed node.
2003  */
2004 static ir_node *gen_Mux(ia32_transform_env_t *env, ir_node *node) {
2005         ir_node *new_op = new_rd_ia32_CMov(env->dbgi, env->irg, env->block, \
2006                 get_Mux_sel(node), get_Mux_false(node), get_Mux_true(node), env->mode);
2007
2008         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2009
2010         return new_op;
2011 }
2012 #endif
2013
2014 typedef ir_node *cmov_func_t(dbg_info *db, ir_graph *irg, ir_node *block,
2015                              ir_node *cmp_a, ir_node *cmp_b, ir_node *psi_true,
2016                              ir_node *psi_default);
2017
2018 /**
2019  * Transforms a Psi node into CMov.
2020  *
2021  * @param env   The transformation environment
2022  * @return The transformed node.
2023  */
2024 static ir_node *gen_Psi(ia32_transform_env_t *env, ir_node *node) {
2025         ia32_code_gen_t *cg   = env->cg;
2026         ir_graph *irg         = env->irg;
2027         dbg_info *dbgi         = get_irn_dbg_info(node);
2028         ir_mode  *mode        = get_irn_mode(node);
2029         ir_node  *block       = transform_node(env, get_nodes_block(node));
2030         ir_node  *cmp_proj    = get_Mux_sel(node);
2031         ir_node  *psi_true    = get_Psi_val(node, 0);
2032         ir_node  *psi_default = get_Psi_default(node);
2033         ir_node  *new_psi_true = transform_node(env, psi_true);
2034         ir_node  *new_psi_default = transform_node(env, psi_default);
2035         ir_node  *noreg       = ia32_new_NoReg_gp(cg);
2036         ir_node  *nomem       = new_rd_NoMem(irg);
2037         ir_node  *cmp, *cmp_a, *cmp_b, *and1, *and2, *new_op = NULL;
2038         ir_node  *new_cmp_a, *new_cmp_b;
2039         ir_mode  *cmp_mode;
2040         int      pnc;
2041
2042         assert(get_irn_mode(cmp_proj) == mode_b && "Condition for Psi must have mode_b");
2043
2044         cmp   = get_Proj_pred(cmp_proj);
2045         cmp_a = get_Cmp_left(cmp);
2046         cmp_b = get_Cmp_right(cmp);
2047         cmp_mode = get_irn_mode(cmp_a);
2048         new_cmp_a = transform_node(env, cmp_a);
2049         new_cmp_b = transform_node(env, cmp_b);
2050
2051         pnc   = get_Proj_proj(cmp_proj);
2052         if (mode_is_float(cmp_mode) || !mode_is_signed(cmp_mode)) {
2053                 pnc |= ia32_pn_Cmp_Unsigned;
2054         }
2055
2056         if (mode_is_float(mode)) {
2057                 /* floating point psi */
2058                 FP_USED(cg);
2059
2060                 /* 1st case: compare operands are float too */
2061                 if (USE_SSE2(cg)) {
2062                         /* psi(cmp(a, b), t, f) can be done as: */
2063                         /* tmp = cmp a, b                       */
2064                         /* tmp2 = t and tmp                     */
2065                         /* tmp3 = f and not tmp                 */
2066                         /* res  = tmp2 or tmp3                  */
2067
2068                         /* in case the compare operands are int, we move them into xmm register */
2069                         if (! mode_is_float(get_irn_mode(cmp_a))) {
2070                                 new_cmp_a = gen_sse_conv_int2float(cg, dbgi, irg, block, new_cmp_a, node, mode_xmm);
2071                                 new_cmp_b = gen_sse_conv_int2float(cg, dbgi, irg, block, new_cmp_b, node, mode_xmm);
2072
2073                                 pnc |= 8;  /* transform integer compare to fp compare */
2074                         }
2075
2076                         new_op = new_rd_ia32_xCmp(dbgi, irg, block, noreg, noreg, new_cmp_a, new_cmp_b, nomem);
2077                         set_ia32_pncode(new_op, pnc);
2078                         set_ia32_am_support(new_op, ia32_am_Source);
2079                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2080
2081                         and1 = new_rd_ia32_xAnd(dbgi, irg, block, noreg, noreg, new_psi_true, new_op, nomem);
2082                         set_ia32_am_support(and1, ia32_am_None);
2083                         set_ia32_commutative(and1);
2084                         SET_IA32_ORIG_NODE(and1, ia32_get_old_node_name(cg, node));
2085
2086                         and2 = new_rd_ia32_xAndNot(dbgi, irg, block, noreg, noreg, new_op, new_psi_default, nomem);
2087                         set_ia32_am_support(and2, ia32_am_None);
2088                         set_ia32_commutative(and2);
2089                         SET_IA32_ORIG_NODE(and2, ia32_get_old_node_name(cg, node));
2090
2091                         new_op = new_rd_ia32_xOr(dbgi, irg, block, noreg, noreg, and1, and2, nomem);
2092                         set_ia32_am_support(new_op, ia32_am_None);
2093                         set_ia32_commutative(new_op);
2094                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2095                 }
2096                 else {
2097                         /* x87 FPU */
2098                         new_op = new_rd_ia32_vfCMov(dbgi, irg, block, new_cmp_a, new_cmp_b, new_psi_true, new_psi_default);
2099                         set_ia32_pncode(new_op, pnc);
2100                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2101                 }
2102         }
2103         else {
2104                 /* integer psi */
2105                 construct_binop_func *set_func  = NULL;
2106                 cmov_func_t          *cmov_func = NULL;
2107
2108                 if (mode_is_float(get_irn_mode(cmp_a))) {
2109                         /* 1st case: compare operands are floats */
2110                         FP_USED(cg);
2111
2112                         if (USE_SSE2(cg)) {
2113                                 /* SSE FPU */
2114                                 set_func  = new_rd_ia32_xCmpSet;
2115                                 cmov_func = new_rd_ia32_xCmpCMov;
2116                         }
2117                         else {
2118                                 /* x87 FPU */
2119                                 set_func  = new_rd_ia32_vfCmpSet;
2120                                 cmov_func = new_rd_ia32_vfCmpCMov;
2121                         }
2122
2123                         pnc &= ~0x8; /* fp compare -> int compare */
2124                 }
2125                 else {
2126                         /* 2nd case: compare operand are integer too */
2127                         set_func  = new_rd_ia32_CmpSet;
2128                         cmov_func = new_rd_ia32_CmpCMov;
2129                 }
2130
2131                 /* check for special case first: And/Or -- Cmp with 0 -- Psi */
2132                 if (is_ia32_Const_0(new_cmp_b) && is_Proj(new_cmp_a) && (is_ia32_And(get_Proj_pred(new_cmp_a)) || is_ia32_Or(get_Proj_pred(new_cmp_a)))) {
2133                         if (is_ia32_Const_1(psi_true) && is_ia32_Const_0(psi_default)) {
2134                                 /* first case for SETcc: default is 0, set to 1 iff condition is true */
2135                                 new_op = new_rd_ia32_PsiCondSet(dbgi, irg, block, new_cmp_a);
2136                                 set_ia32_pncode(new_op, pnc);
2137                         }
2138                         else if (is_ia32_Const_0(psi_true) && is_ia32_Const_1(psi_default)) {
2139                                 /* second case for SETcc: default is 1, set to 0 iff condition is true: */
2140                                 /*                        we invert condition and set default to 0      */
2141                                 new_op = new_rd_ia32_PsiCondSet(dbgi, irg, block, new_cmp_a);
2142                                 set_ia32_pncode(new_op, get_inversed_pnc(pnc));
2143                         }
2144                         else {
2145                                 /* otherwise: use CMOVcc */
2146                                 new_op = new_rd_ia32_PsiCondCMov(dbgi, irg, block, new_cmp_a, new_psi_true, new_psi_default);
2147                                 set_ia32_pncode(new_op, pnc);
2148                         }
2149
2150                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2151                 }
2152                 else {
2153                         if (is_ia32_Const_1(psi_true) && is_ia32_Const_0(psi_default)) {
2154                                 /* first case for SETcc: default is 0, set to 1 iff condition is true */
2155                                 new_op = gen_binop(env, node, cmp_a, cmp_b, set_func);
2156                                 set_ia32_pncode(new_op, pnc);
2157                                 set_ia32_am_support(new_op, ia32_am_Source);
2158                         }
2159                         else if (is_ia32_Const_0(psi_true) && is_ia32_Const_1(psi_default)) {
2160                                 /* second case for SETcc: default is 1, set to 0 iff condition is true: */
2161                                 /*                        we invert condition and set default to 0      */
2162                                 new_op = gen_binop(env, node, cmp_a, cmp_b, set_func);
2163                                 set_ia32_pncode(new_op, get_inversed_pnc(pnc));
2164                                 set_ia32_am_support(new_op, ia32_am_Source);
2165                         }
2166                         else {
2167                                 /* otherwise: use CMOVcc */
2168                                 new_op = cmov_func(dbgi, irg, block, new_cmp_a, new_cmp_b, new_psi_true, new_psi_default);
2169                                 set_ia32_pncode(new_op, pnc);
2170                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2171                         }
2172                 }
2173         }
2174
2175         return new_op;
2176 }
2177
2178
2179 /**
2180  * Following conversion rules apply:
2181  *
2182  *  INT -> INT
2183  * ============
2184  *  1) n bit -> m bit   n > m (downscale)
2185  *     always ignored
2186  *  2) n bit -> m bit   n == m   (sign change)
2187  *     always ignored
2188  *  3) n bit -> m bit   n < m (upscale)
2189  *     a) source is signed:    movsx
2190  *     b) source is unsigned:  and with lower bits sets
2191  *
2192  *  INT -> FLOAT
2193  * ==============
2194  *  SSE(1/2) convert to float or double (cvtsi2ss/sd)
2195  *
2196  *  FLOAT -> INT
2197  * ==============
2198  *  SSE(1/2) convert from float or double to 32bit int (cvtss/sd2si)
2199  *
2200  *  FLOAT -> FLOAT
2201  * ================
2202  *  SSE(1/2) convert from float or double to double or float (cvtss/sd2sd/ss)
2203  *  x87 is mode_E internally, conversions happen only at load and store
2204  *  in non-strict semantic
2205  */
2206
2207 /**
2208  * Create a conversion from x87 state register to general purpose.
2209  */
2210 static ir_node *gen_x87_fp_to_gp(ia32_transform_env_t *env, ir_node *node) {
2211         ia32_code_gen_t *cg    = env->cg;
2212         ir_graph        *irg   = env->irg;
2213         dbg_info        *dbgi   = get_irn_dbg_info(node);
2214         ir_node         *block = transform_node(env, get_nodes_block(node));
2215         ir_node         *noreg = ia32_new_NoReg_gp(cg);
2216         ir_node         *op    = get_Conv_op(node);
2217         ir_node         *new_op = transform_node(env, op);
2218         ir_node         *fist, *load;
2219         ir_node         *trunc_mode = ia32_new_Fpu_truncate(cg);
2220
2221         /* do a fist */
2222         fist = new_rd_ia32_vfist(dbgi, irg, block,
2223                         get_irg_frame(irg), noreg, new_op, trunc_mode, new_NoMem());
2224
2225         set_ia32_use_frame(fist);
2226         set_ia32_am_support(fist, ia32_am_Dest);
2227         set_ia32_op_type(fist, ia32_AddrModeD);
2228         set_ia32_am_flavour(fist, ia32_am_B);
2229         set_ia32_ls_mode(fist, mode_Iu);
2230         SET_IA32_ORIG_NODE(fist, ia32_get_old_node_name(cg, node));
2231
2232         /* do a Load */
2233         load = new_rd_ia32_Load(dbgi, irg, block, get_irg_frame(irg), noreg, fist);
2234
2235         set_ia32_use_frame(load);
2236         set_ia32_am_support(load, ia32_am_Source);
2237         set_ia32_op_type(load, ia32_AddrModeS);
2238         set_ia32_am_flavour(load, ia32_am_B);
2239         set_ia32_ls_mode(load, mode_Iu);
2240         SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(cg, node));
2241
2242         return new_r_Proj(irg, block, load, mode_Iu, pn_ia32_Load_res);
2243 }
2244
2245 /**
2246  * Create a conversion from general purpose to x87 register
2247  */
2248 static ir_node *gen_x87_gp_to_fp(ia32_transform_env_t *env, ir_node *node, ir_mode *src_mode) {
2249 #ifndef NDEBUG
2250         ia32_code_gen_t *cg = env->cg;
2251 #endif
2252         ir_graph  *irg    = env->irg;
2253         dbg_info  *dbgi   = get_irn_dbg_info(node);
2254         ir_node   *block  = transform_node(env, get_nodes_block(node));
2255         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
2256         ir_node   *nomem  = new_NoMem();
2257         ir_node   *op     = get_Conv_op(node);
2258         ir_node   *new_op = transform_node(env, op);
2259         ir_node   *fild, *store;
2260         int       src_bits;
2261
2262         /* first convert to 32 bit if necessary */
2263         src_bits = get_mode_size_bits(src_mode);
2264         if (src_bits == 8) {
2265                 new_op = new_rd_ia32_Conv_I2I8Bit(dbgi, irg, block, noreg, noreg, new_op, nomem);
2266                 set_ia32_am_support(new_op, ia32_am_Source);
2267                 set_ia32_ls_mode(new_op, src_mode);
2268                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2269         } else if (src_bits < 32) {
2270                 new_op = new_rd_ia32_Conv_I2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2271                 set_ia32_am_support(new_op, ia32_am_Source);
2272                 set_ia32_ls_mode(new_op, src_mode);
2273                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2274         }
2275
2276         /* do a store */
2277         store = new_rd_ia32_Store(dbgi, irg, block, get_irg_frame(irg), noreg, new_op, nomem);
2278
2279         set_ia32_use_frame(store);
2280         set_ia32_am_support(store, ia32_am_Dest);
2281         set_ia32_op_type(store, ia32_AddrModeD);
2282         set_ia32_am_flavour(store, ia32_am_OB);
2283         set_ia32_ls_mode(store, mode_Iu);
2284
2285         /* do a fild */
2286         fild = new_rd_ia32_vfild(dbgi, irg, block, get_irg_frame(irg), noreg, store);
2287
2288         set_ia32_use_frame(fild);
2289         set_ia32_am_support(fild, ia32_am_Source);
2290         set_ia32_op_type(fild, ia32_AddrModeS);
2291         set_ia32_am_flavour(fild, ia32_am_OB);
2292         set_ia32_ls_mode(fild, mode_Iu);
2293
2294         return new_r_Proj(irg, block, fild, mode_vfp, pn_ia32_vfild_res);
2295 }
2296
2297 /**
2298  * Transforms a Conv node.
2299  *
2300  * @param env   The transformation environment
2301  * @return The created ia32 Conv node
2302  */
2303 static ir_node *gen_Conv(ia32_transform_env_t *env, ir_node *node) {
2304         ir_graph *irg      = env->irg;
2305         dbg_info *dbgi      = get_irn_dbg_info(node);
2306         ir_node  *op       = get_Conv_op(node);
2307         ir_mode  *src_mode = get_irn_mode(op);
2308         ir_mode  *tgt_mode = get_irn_mode(node);
2309         int      src_bits  = get_mode_size_bits(src_mode);
2310         int      tgt_bits  = get_mode_size_bits(tgt_mode);
2311         ir_node  *block    = transform_node(env, get_nodes_block(node));
2312         ir_node  *res;
2313         ir_node  *noreg    = ia32_new_NoReg_gp(env->cg);
2314         ir_node  *nomem    = new_rd_NoMem(irg);
2315         ir_node  *new_op   = transform_node(env, op);
2316
2317         if (src_mode == tgt_mode) {
2318                 if (get_Conv_strict(node)) {
2319                         if (USE_SSE2(env->cg)) {
2320                                 /* when we are in SSE mode, we can kill all strict no-op conversion */
2321                                 return new_op;
2322                         }
2323                 } else {
2324                         /* this should be optimized already, but who knows... */
2325                         DEBUG_ONLY(ir_fprintf(stderr, "Debug warning: conv %+F is pointless\n", node));
2326                         DB((dbg, LEVEL_1, "killed Conv(mode, mode) ..."));
2327                         return new_op;
2328                 }
2329         }
2330
2331         if (mode_is_float(src_mode)) {
2332                 /* we convert from float ... */
2333                 if (mode_is_float(tgt_mode)) {
2334                         /* ... to float */
2335                         if (USE_SSE2(env->cg)) {
2336                                 DB((dbg, LEVEL_1, "create Conv(float, float) ..."));
2337                                 res = new_rd_ia32_Conv_FP2FP(dbgi, irg, block, noreg, noreg, new_op, nomem);
2338                                 set_ia32_ls_mode(res, tgt_mode);
2339                         } else {
2340                                 // Matze: TODO what about strict convs?
2341                                 DEBUG_ONLY(ir_fprintf(stderr, "Debug warning: strict conv %+F ignored yet\n", node));
2342                                 DB((dbg, LEVEL_1, "killed Conv(float, float) ..."));
2343                                 return new_op;
2344                         }
2345                 } else {
2346                         /* ... to int */
2347                         DB((dbg, LEVEL_1, "create Conv(float, int) ..."));
2348                         if (USE_SSE2(env->cg)) {
2349                                 res = new_rd_ia32_Conv_FP2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2350                                 set_ia32_ls_mode(res, src_mode);
2351                         } else {
2352                                 return gen_x87_fp_to_gp(env, node);
2353                         }
2354                 }
2355         } else {
2356                 /* we convert from int ... */
2357                 if (mode_is_float(tgt_mode)) {
2358                         FP_USED(env->cg);
2359                         /* ... to float */
2360                         DB((dbg, LEVEL_1, "create Conv(int, float) ..."));
2361                         if (USE_SSE2(env->cg)) {
2362                                 res = new_rd_ia32_Conv_I2FP(dbgi, irg, block, noreg, noreg, new_op, nomem);
2363                                 set_ia32_ls_mode(res, tgt_mode);
2364                                 if(src_bits == 32) {
2365                                         set_ia32_am_support(res, ia32_am_Source);
2366                                 }
2367                         } else {
2368                                 return gen_x87_gp_to_fp(env, node, src_mode);
2369                         }
2370                 } else {
2371                         /* to int */
2372                         ir_mode *smaller_mode;
2373                         int smaller_bits;
2374
2375                         if (src_bits == tgt_bits) {
2376                                 DB((dbg, LEVEL_1, "omitting unnecessary Conv(%+F, %+F) ...", src_mode, tgt_mode));
2377                                 return new_op;
2378                         }
2379
2380                         if(src_bits < tgt_bits) {
2381                                 smaller_mode = src_mode;
2382                                 smaller_bits = src_bits;
2383                         } else {
2384                                 smaller_mode = tgt_mode;
2385                                 smaller_bits = tgt_bits;
2386                         }
2387
2388                         // The following is not correct, we can't change the mode,
2389                         // maybe others are using the load too
2390                         // better move this to a separate phase!
2391 #if 0
2392                         /* ... to int */
2393                         if(is_Proj(new_op)) {
2394                                 /* load operations do already sign/zero extend, so we have
2395                                  * nothing left to do */
2396                                 ir_node *pred = get_Proj_pred(new_op);
2397                                 if(is_ia32_Load(pred)) {
2398                                         set_ia32_ls_mode(pred, smaller_mode);
2399                                         return new_op;
2400                                 }
2401                         }
2402 #endif
2403
2404                         DB((dbg, LEVEL_1, "create Conv(int, int) ...", src_mode, tgt_mode));
2405                         if (smaller_bits == 8) {
2406                                 res = new_rd_ia32_Conv_I2I8Bit(dbgi, irg, block, noreg, noreg, new_op, nomem);
2407                                 set_ia32_ls_mode(res, smaller_mode);
2408                         } else {
2409                                 res = new_rd_ia32_Conv_I2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2410                                 set_ia32_ls_mode(res, smaller_mode);
2411                         }
2412                         set_ia32_am_support(res, ia32_am_Source);
2413                 }
2414         }
2415
2416         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
2417
2418         return res;
2419 }
2420
2421
2422
2423 /********************************************
2424  *  _                          _
2425  * | |                        | |
2426  * | |__   ___ _ __   ___   __| | ___  ___
2427  * | '_ \ / _ \ '_ \ / _ \ / _` |/ _ \/ __|
2428  * | |_) |  __/ | | | (_) | (_| |  __/\__ \
2429  * |_.__/ \___|_| |_|\___/ \__,_|\___||___/
2430  *
2431  ********************************************/
2432
2433 static ir_node *gen_be_StackParam(ia32_transform_env_t *env, ir_node *node) {
2434         ir_node   *new_op = NULL;
2435         ir_graph  *irg    = env->irg;
2436         dbg_info  *dbgi    = get_irn_dbg_info(node);
2437         ir_node   *block  = transform_node(env, get_nodes_block(node));
2438         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
2439         ir_node   *nomem  = new_rd_NoMem(env->irg);
2440         ir_node   *ptr    = get_irn_n(node, 0);
2441         ir_node  *new_ptr = transform_node(env, ptr);
2442         ir_entity *ent    = arch_get_frame_entity(env->cg->arch_env, node);
2443         ir_mode   *load_mode = get_irn_mode(node);
2444         ir_mode   *proj_mode;
2445         long      pn_res;
2446
2447         if (mode_is_float(load_mode)) {
2448                 FP_USED(env->cg);
2449                 if (USE_SSE2(env->cg)) {
2450                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, nomem);
2451                         pn_res    = pn_ia32_xLoad_res;
2452                         proj_mode = mode_xmm;
2453                 } else {
2454                         new_op = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, nomem);
2455                         pn_res    = pn_ia32_vfld_res;
2456                         proj_mode = mode_vfp;
2457                 }
2458         } else {
2459                 new_op = new_rd_ia32_Load(dbgi, irg, block, new_ptr, noreg, nomem);
2460                 proj_mode = mode_Iu;
2461                 pn_res = pn_ia32_Load_res;
2462         }
2463
2464         set_ia32_frame_ent(new_op, ent);
2465         set_ia32_use_frame(new_op);
2466
2467         set_ia32_am_support(new_op, ia32_am_Source);
2468         set_ia32_op_type(new_op, ia32_AddrModeS);
2469         set_ia32_am_flavour(new_op, ia32_am_B);
2470         set_ia32_ls_mode(new_op, load_mode);
2471         set_ia32_flags(new_op, get_ia32_flags(new_op) | arch_irn_flags_rematerializable);
2472
2473         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2474
2475         return new_rd_Proj(dbgi, irg, block, new_op, proj_mode, pn_res);
2476 }
2477
2478 /**
2479  * Transforms a FrameAddr into an ia32 Add.
2480  */
2481 static ir_node *gen_be_FrameAddr(ia32_transform_env_t *env, ir_node *node) {
2482         ir_graph *irg   = env->irg;
2483         dbg_info *dbgi   = get_irn_dbg_info(node);
2484         ir_node *block  = transform_node(env, get_nodes_block(node));
2485         ir_node *op     = get_irn_n(node, 0);
2486         ir_node *new_op = transform_node(env, op);
2487         ir_node *res;
2488         ir_node *noreg  = ia32_new_NoReg_gp(env->cg);
2489
2490         res = new_rd_ia32_Lea(dbgi, irg, block, new_op, noreg);
2491         set_ia32_frame_ent(res, arch_get_frame_entity(env->cg->arch_env, node));
2492         set_ia32_am_support(res, ia32_am_Full);
2493         set_ia32_use_frame(res);
2494         set_ia32_am_flavour(res, ia32_am_OB);
2495
2496         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env->cg, node));
2497
2498         return res;
2499 }
2500
2501 /**
2502  * Transforms a FrameLoad into an ia32 Load.
2503  */
2504 static ir_node *gen_be_FrameLoad(ia32_transform_env_t *env, ir_node *node) {
2505         ir_node   *new_op  = NULL;
2506         ir_graph  *irg     = env->irg;
2507         dbg_info  *dbgi     = get_irn_dbg_info(node);
2508         ir_node   *block   = transform_node(env, get_nodes_block(node));
2509         ir_node   *noreg   = ia32_new_NoReg_gp(env->cg);
2510         ir_node   *mem     = get_irn_n(node, 0);
2511         ir_node   *ptr     = get_irn_n(node, 1);
2512         ir_node   *new_mem = transform_node(env, mem);
2513         ir_node   *new_ptr = transform_node(env, ptr);
2514         ir_entity *ent     = arch_get_frame_entity(env->cg->arch_env, node);
2515         ir_mode   *mode    = get_type_mode(get_entity_type(ent));
2516         ir_node   *projs[pn_Load_max];
2517
2518         ia32_collect_Projs(node, projs, pn_Load_max);
2519
2520         if (mode_is_float(mode)) {
2521                 FP_USED(env->cg);
2522                 if (USE_SSE2(env->cg)) {
2523                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, new_mem);
2524                 }
2525                 else {
2526                         new_op = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, new_mem);
2527                 }
2528         }
2529         else {
2530                 new_op = new_rd_ia32_Load(dbgi, irg, block, new_ptr, noreg, new_mem);
2531         }
2532
2533         set_ia32_frame_ent(new_op, ent);
2534         set_ia32_use_frame(new_op);
2535
2536         set_ia32_am_support(new_op, ia32_am_Source);
2537         set_ia32_op_type(new_op, ia32_AddrModeS);
2538         set_ia32_am_flavour(new_op, ia32_am_B);
2539         set_ia32_ls_mode(new_op, mode);
2540
2541         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2542
2543         return new_op;
2544 }
2545
2546
2547 /**
2548  * Transforms a FrameStore into an ia32 Store.
2549  */
2550 static ir_node *gen_be_FrameStore(ia32_transform_env_t *env, ir_node *node) {
2551         ir_node   *new_op  = NULL;
2552         ir_graph  *irg     = env->irg;
2553         dbg_info  *dbgi     = get_irn_dbg_info(node);
2554         ir_node   *block   = transform_node(env, get_nodes_block(node));
2555         ir_node   *noreg   = ia32_new_NoReg_gp(env->cg);
2556         ir_node   *mem     = get_irn_n(node, 0);
2557         ir_node   *ptr     = get_irn_n(node, 1);
2558         ir_node   *val     = get_irn_n(node, 2);
2559         ir_node   *new_mem = transform_node(env, mem);
2560         ir_node   *new_ptr = transform_node(env, ptr);
2561         ir_node   *new_val = transform_node(env, val);
2562         ir_entity *ent     = arch_get_frame_entity(env->cg->arch_env, node);
2563         ir_mode   *mode    = get_irn_mode(val);
2564
2565         if (mode_is_float(mode)) {
2566                 FP_USED(env->cg);
2567                 if (USE_SSE2(env->cg)) {
2568                         new_op = new_rd_ia32_xStore(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2569                 } else {
2570                         new_op = new_rd_ia32_vfst(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2571                 }
2572         } else if (get_mode_size_bits(mode) == 8) {
2573                 new_op = new_rd_ia32_Store8Bit(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2574         } else {
2575                 new_op = new_rd_ia32_Store(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2576         }
2577
2578         set_ia32_frame_ent(new_op, ent);
2579         set_ia32_use_frame(new_op);
2580
2581         set_ia32_am_support(new_op, ia32_am_Dest);
2582         set_ia32_op_type(new_op, ia32_AddrModeD);
2583         set_ia32_am_flavour(new_op, ia32_am_B);
2584         set_ia32_ls_mode(new_op, mode);
2585
2586         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2587
2588         return new_op;
2589 }
2590
2591 /**
2592  * In case SSE is used we need to copy the result from XMM0 to FPU TOS before return.
2593  */
2594 static ir_node *gen_be_Return(ia32_transform_env_t *env, ir_node *node) {
2595         ir_graph  *irg     = env->irg;
2596         dbg_info  *dbgi;
2597         ir_node   *block;
2598         ir_node   *ret_val = get_irn_n(node, be_pos_Return_val);
2599         ir_node   *ret_mem = get_irn_n(node, be_pos_Return_mem);
2600         ir_entity *ent     = get_irg_entity(irg);
2601         ir_type   *tp      = get_entity_type(ent);
2602         ir_type   *res_type;
2603         ir_mode   *mode;
2604         ir_node *frame, *sse_store, *fld, *mproj, *barrier;
2605         ir_node *new_barrier, *new_ret_val, *new_ret_mem;
2606         ir_node  **in;
2607         int pn_ret_val, pn_ret_mem, arity, i;
2608
2609         assert(ret_val != NULL);
2610         if (be_Return_get_n_rets(node) < 1 || ! USE_SSE2(env->cg)) {
2611                 return duplicate_node(env, node);
2612         }
2613
2614         res_type = get_method_res_type(tp, 0);
2615
2616         if (!is_Primitive_type(res_type)) {
2617                 return duplicate_node(env, node);
2618         }
2619
2620         mode = get_type_mode(res_type);
2621         if (!mode_is_float(mode)) {
2622                 return duplicate_node(env, node);
2623         }
2624
2625         assert(get_method_n_ress(tp) == 1);
2626
2627         pn_ret_val = get_Proj_proj(ret_val);
2628         pn_ret_mem = get_Proj_proj(ret_mem);
2629
2630         /* get the Barrier */
2631         barrier = get_Proj_pred(ret_val);
2632
2633         /* get result input of the Barrier */
2634         ret_val = get_irn_n(barrier, pn_ret_val);
2635         new_ret_val = transform_node(env, ret_val);
2636
2637         /* get memory input of the Barrier */
2638         ret_mem = get_irn_n(barrier, pn_ret_mem);
2639         new_ret_mem = transform_node(env, ret_mem);
2640
2641         frame = get_irg_frame(irg);
2642
2643         dbgi = get_irn_dbg_info(barrier);
2644         block = transform_node(env, get_nodes_block(barrier));
2645
2646         /* store xmm0 onto stack */
2647         sse_store = new_rd_ia32_xStoreSimple(dbgi, irg, block, frame, new_ret_val, new_ret_mem);
2648         set_ia32_ls_mode(sse_store, mode);
2649         set_ia32_op_type(sse_store, ia32_AddrModeD);
2650         set_ia32_use_frame(sse_store);
2651         set_ia32_am_flavour(sse_store, ia32_am_B);
2652         set_ia32_am_support(sse_store, ia32_am_Dest);
2653
2654         /* load into st0 */
2655         fld = new_rd_ia32_SetST0(dbgi, irg, block, frame, sse_store);
2656         set_ia32_ls_mode(fld, mode);
2657         set_ia32_op_type(fld, ia32_AddrModeS);
2658         set_ia32_use_frame(fld);
2659         set_ia32_am_flavour(fld, ia32_am_B);
2660         set_ia32_am_support(fld, ia32_am_Source);
2661
2662         mproj = new_r_Proj(irg, block, fld, mode_M, pn_ia32_SetST0_M);
2663         fld   = new_r_Proj(irg, block, fld, mode_vfp, pn_ia32_SetST0_res);
2664         arch_set_irn_register(env->cg->arch_env, fld, &ia32_vfp_regs[REG_VF0]);
2665
2666         /* create a new barrier */
2667         arity = get_irn_arity(barrier);
2668         in = alloca(arity * sizeof(in[0]));
2669         for(i = 0; i < arity; ++i) {
2670                 ir_node *new_in;
2671                 if(i == pn_ret_val) {
2672                         new_in = fld;
2673                 } else if(i == pn_ret_mem) {
2674                         new_in = mproj;
2675                 } else {
2676                         ir_node *in = get_irn_n(barrier, i);
2677                         new_in = transform_node(env, in);
2678                 }
2679                 in[i] = new_in;
2680         }
2681
2682         new_barrier = new_ir_node(dbgi, irg, block,
2683                                   get_irn_op(barrier), get_irn_mode(barrier),
2684                                   arity, in);
2685         copy_node_attr(barrier, new_barrier);
2686         duplicate_deps(env, barrier, new_barrier);
2687         set_new_node(barrier, new_barrier);
2688         mark_irn_visited(barrier);
2689
2690         /* transform normally */
2691         return duplicate_node(env, node);
2692 }
2693
2694 /**
2695  * Transform a be_AddSP into an ia32_AddSP. Eat up const sizes.
2696  */
2697 static ir_node *gen_be_AddSP(ia32_transform_env_t *env, ir_node *node) {
2698         ir_node *new_op;
2699         ir_graph *irg = env->irg;
2700         dbg_info *dbgi = get_irn_dbg_info(node);
2701         ir_node *block = transform_node(env, get_nodes_block(node));
2702         ir_node *sz = get_irn_n(node, be_pos_AddSP_size);
2703         ir_node *new_sz = transform_node(env, sz);
2704         ir_node *sp = get_irn_n(node, be_pos_AddSP_old_sp);
2705         ir_node *new_sp = transform_node(env, sp);
2706         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2707         ir_node *nomem = new_NoMem();
2708
2709         /* ia32 stack grows in reverse direction, make a SubSP */
2710         new_op = new_rd_ia32_SubSP(dbgi, irg, block, noreg, noreg, new_sp, new_sz, nomem);
2711         set_ia32_am_support(new_op, ia32_am_Source);
2712         fold_immediate(env, new_op, 2, 3);
2713
2714         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2715
2716         return new_op;
2717 }
2718
2719 /**
2720  * Transform a be_SubSP into an ia32_SubSP. Eat up const sizes.
2721  */
2722 static ir_node *gen_be_SubSP(ia32_transform_env_t *env, ir_node *node) {
2723         ir_node *new_op;
2724         ir_graph *irg = env->irg;
2725         dbg_info *dbgi = get_irn_dbg_info(node);
2726         ir_node *block = transform_node(env, get_nodes_block(node));
2727         ir_node *sz = get_irn_n(node, be_pos_SubSP_size);
2728         ir_node *new_sz = transform_node(env, sz);
2729         ir_node *sp = get_irn_n(node, be_pos_SubSP_old_sp);
2730         ir_node *new_sp = transform_node(env, sp);
2731         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2732         ir_node *nomem = new_NoMem();
2733
2734         /* ia32 stack grows in reverse direction, make an AddSP */
2735         new_op = new_rd_ia32_AddSP(dbgi, irg, block, noreg, noreg, new_sp, new_sz, nomem);
2736         set_ia32_am_support(new_op, ia32_am_Source);
2737         fold_immediate(env, new_op, 2, 3);
2738
2739         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2740
2741         return new_op;
2742 }
2743
2744 /**
2745  * This function just sets the register for the Unknown node
2746  * as this is not done during register allocation because Unknown
2747  * is an "ignore" node.
2748  */
2749 static ir_node *gen_Unknown(ia32_transform_env_t *env, ir_node *node) {
2750         ir_mode *mode = get_irn_mode(node);
2751
2752         if (mode_is_float(mode)) {
2753                 if (USE_SSE2(env->cg))
2754                         return ia32_new_Unknown_xmm(env->cg);
2755                 else
2756                         return ia32_new_Unknown_vfp(env->cg);
2757         } else if (mode_needs_gp_reg(mode)) {
2758                 return ia32_new_Unknown_gp(env->cg);
2759         } else {
2760                 assert(0 && "unsupported Unknown-Mode");
2761         }
2762
2763         return NULL;
2764 }
2765
2766 /**
2767  * Change some phi modes
2768  */
2769 static ir_node *gen_Phi(ia32_transform_env_t *env, ir_node *node) {
2770         ir_graph *irg = env->irg;
2771         dbg_info *dbgi = get_irn_dbg_info(node);
2772         ir_mode *mode = get_irn_mode(node);
2773         ir_node *block = transform_node(env, get_nodes_block(node));
2774         ir_node *phi;
2775         int i, arity;
2776
2777         if(mode_needs_gp_reg(mode)) {
2778                 // we shouldn't have any 64bit stuff around anymore
2779                 assert(get_mode_size_bits(mode) <= 32);
2780                 // all integer operations are on 32bit registers now
2781                 mode = mode_Iu;
2782         } else if(mode_is_float(mode)) {
2783                 assert(mode == mode_D || mode == mode_F);
2784                 if (USE_SSE2(env->cg)) {
2785                         mode = mode_xmm;
2786                 } else {
2787                         mode = mode_vfp;
2788                 }
2789         }
2790
2791         /* phi nodes allow loops, so we use the old arguments for now
2792          * and fix this later */
2793         phi = new_ir_node(dbgi, irg, block, op_Phi, mode, get_irn_arity(node),
2794                           get_irn_in(node) + 1);
2795         copy_node_attr(node, phi);
2796         duplicate_deps(env, node, phi);
2797
2798         set_new_node(node, phi);
2799
2800         /* put the preds in the worklist */
2801         arity = get_irn_arity(node);
2802         for(i = 0; i < arity; ++i) {
2803                 ir_node *pred = get_irn_n(node, i);
2804                 pdeq_putr(env->worklist, pred);
2805         }
2806
2807         return phi;
2808 }
2809
2810 /**********************************************************************
2811  *  _                                _                   _
2812  * | |                              | |                 | |
2813  * | | _____      _____ _ __ ___  __| |  _ __   ___   __| | ___  ___
2814  * | |/ _ \ \ /\ / / _ \ '__/ _ \/ _` | | '_ \ / _ \ / _` |/ _ \/ __|
2815  * | | (_) \ V  V /  __/ | |  __/ (_| | | | | | (_) | (_| |  __/\__ \
2816  * |_|\___/ \_/\_/ \___|_|  \___|\__,_| |_| |_|\___/ \__,_|\___||___/
2817  *
2818  **********************************************************************/
2819
2820 /* These nodes are created in intrinsic lowering (64bit -> 32bit) */
2821
2822 typedef ir_node *construct_load_func(dbg_info *db, ir_graph *irg, ir_node *block, ir_node *base, ir_node *index, \
2823                                      ir_node *mem);
2824
2825 typedef ir_node *construct_store_func(dbg_info *db, ir_graph *irg, ir_node *block, ir_node *base, ir_node *index, \
2826                                       ir_node *val, ir_node *mem);
2827
2828 /**
2829  * Transforms a lowered Load into a "real" one.
2830  */
2831 static ir_node *gen_lowered_Load(ia32_transform_env_t *env, ir_node *node, construct_load_func func, char fp_unit) {
2832         ir_graph *irg  = env->irg;
2833         dbg_info *dbgi  = get_irn_dbg_info(node);
2834         ir_node *block = transform_node(env, get_nodes_block(node));
2835         ir_mode *mode  = get_ia32_ls_mode(node);
2836         ir_node *new_op;
2837         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2838         ir_node *ptr   = get_irn_n(node, 0);
2839         ir_node *mem   = get_irn_n(node, 1);
2840         ir_node *new_ptr = transform_node(env, ptr);
2841         ir_node *new_mem = transform_node(env, mem);
2842
2843         /*
2844                 Could be that we have SSE2 unit, but due to 64Bit Div/Conv
2845                 lowering we have x87 nodes, so we need to enforce simulation.
2846         */
2847         if (mode_is_float(mode)) {
2848                 FP_USED(env->cg);
2849                 if (fp_unit == fp_x87)
2850                         FORCE_x87(env->cg);
2851         }
2852
2853         new_op  = func(dbgi, irg, block, new_ptr, noreg, new_mem);
2854
2855         set_ia32_am_support(new_op, ia32_am_Source);
2856         set_ia32_op_type(new_op, ia32_AddrModeS);
2857         set_ia32_am_flavour(new_op, ia32_am_OB);
2858         set_ia32_am_offs_int(new_op, 0);
2859         set_ia32_am_scale(new_op, 1);
2860         set_ia32_am_sc(new_op, get_ia32_am_sc(node));
2861         if(is_ia32_am_sc_sign(node))
2862                 set_ia32_am_sc_sign(new_op);
2863         set_ia32_ls_mode(new_op, get_ia32_ls_mode(node));
2864         if(is_ia32_use_frame(node)) {
2865                 set_ia32_frame_ent(new_op, get_ia32_frame_ent(node));
2866                 set_ia32_use_frame(new_op);
2867         }
2868
2869         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2870
2871         return new_op;
2872 }
2873
2874 /**
2875 * Transforms a lowered Store into a "real" one.
2876 */
2877 static ir_node *gen_lowered_Store(ia32_transform_env_t *env, ir_node *node, construct_store_func func, char fp_unit) {
2878         ir_graph *irg  = env->irg;
2879         dbg_info *dbgi  = get_irn_dbg_info(node);
2880         ir_node *block = transform_node(env, get_nodes_block(node));
2881         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2882         ir_mode *mode  = get_ia32_ls_mode(node);
2883         ir_node *new_op;
2884         long am_offs;
2885         ia32_am_flavour_t am_flav = ia32_B;
2886         ir_node *ptr = get_irn_n(node, 0);
2887         ir_node *val = get_irn_n(node, 1);
2888         ir_node *mem = get_irn_n(node, 2);
2889         ir_node *new_ptr = transform_node(env, ptr);
2890         ir_node *new_val = transform_node(env, val);
2891         ir_node *new_mem = transform_node(env, mem);
2892
2893         /*
2894                 Could be that we have SSE2 unit, but due to 64Bit Div/Conv
2895                 lowering we have x87 nodes, so we need to enforce simulation.
2896         */
2897         if (mode_is_float(mode)) {
2898                 FP_USED(env->cg);
2899                 if (fp_unit == fp_x87)
2900                         FORCE_x87(env->cg);
2901         }
2902
2903         new_op = func(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
2904
2905         if ((am_offs = get_ia32_am_offs_int(node)) != 0) {
2906                 am_flav |= ia32_O;
2907                 add_ia32_am_offs_int(new_op, am_offs);
2908         }
2909
2910         set_ia32_am_support(new_op, ia32_am_Dest);
2911         set_ia32_op_type(new_op, ia32_AddrModeD);
2912         set_ia32_am_flavour(new_op, am_flav);
2913         set_ia32_ls_mode(new_op, mode);
2914         set_ia32_frame_ent(new_op, get_ia32_frame_ent(node));
2915         set_ia32_use_frame(new_op);
2916
2917         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
2918
2919         return new_op;
2920 }
2921
2922
2923 /**
2924  * Transforms an ia32_l_XXX into a "real" XXX node
2925  *
2926  * @param env   The transformation environment
2927  * @return the created ia32 XXX node
2928  */
2929 #define GEN_LOWERED_OP(op)                                                     \
2930         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2931                 ir_mode *mode = get_irn_mode(node);                                    \
2932                 if (mode_is_float(mode))                                               \
2933                         FP_USED(env->cg);                                                  \
2934                 return gen_binop(env, node, get_binop_left(node),                      \
2935                                  get_binop_right(node), new_rd_ia32_##op);             \
2936         }
2937
2938 #define GEN_LOWERED_x87_OP(op)                                                 \
2939         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2940                 ir_node *new_op;                                                       \
2941                 FORCE_x87(env->cg);                                                    \
2942                 new_op = gen_binop_float(env, node, get_binop_left(node),              \
2943                                          get_binop_right(node), new_rd_ia32_##op);     \
2944                 return new_op;                                                         \
2945         }
2946
2947 #define GEN_LOWERED_UNOP(op)                                                   \
2948         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2949                 return gen_unop(env, node, get_unop_op(node), new_rd_ia32_##op);       \
2950         }
2951
2952 #define GEN_LOWERED_SHIFT_OP(op)                                               \
2953         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2954                 return gen_shift_binop(env, node, get_binop_left(node),                \
2955                                        get_binop_right(node), new_rd_ia32_##op);       \
2956         }
2957
2958 #define GEN_LOWERED_LOAD(op, fp_unit)                                          \
2959         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2960                 return gen_lowered_Load(env, node, new_rd_ia32_##op, fp_unit);         \
2961         }
2962
2963 #define GEN_LOWERED_STORE(op, fp_unit)                                         \
2964         static ir_node *gen_ia32_l_##op(ia32_transform_env_t *env, ir_node *node) {\
2965                 return gen_lowered_Store(env, node, new_rd_ia32_##op, fp_unit);        \
2966         }
2967
2968 GEN_LOWERED_OP(Adc)
2969 GEN_LOWERED_OP(Add)
2970 GEN_LOWERED_OP(Sbb)
2971 GEN_LOWERED_OP(Sub)
2972 GEN_LOWERED_OP(IMul)
2973 GEN_LOWERED_OP(Xor)
2974 GEN_LOWERED_x87_OP(vfprem)
2975 GEN_LOWERED_x87_OP(vfmul)
2976 GEN_LOWERED_x87_OP(vfsub)
2977
2978 GEN_LOWERED_UNOP(Neg)
2979
2980 GEN_LOWERED_LOAD(vfild, fp_x87)
2981 GEN_LOWERED_LOAD(Load, fp_none)
2982 /*GEN_LOWERED_STORE(vfist, fp_x87)
2983  *TODO
2984  */
2985 GEN_LOWERED_STORE(Store, fp_none)
2986
2987 static ir_node *gen_ia32_l_vfdiv(ia32_transform_env_t *env, ir_node *node) {
2988         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
2989         ir_graph *irg = env->irg;
2990         dbg_info *dbgi = get_irn_dbg_info(node);
2991         ir_node *block = transform_node(env, get_nodes_block(node));
2992         ir_node *left = get_binop_left(node);
2993         ir_node *right = get_binop_right(node);
2994         ir_node *new_left = transform_node(env, left);
2995         ir_node *new_right = transform_node(env, right);
2996         ir_node *vfdiv;
2997
2998         vfdiv = new_rd_ia32_vfdiv(dbgi, irg, block, noreg, noreg, new_left, new_right, new_NoMem());
2999         clear_ia32_commutative(vfdiv);
3000         set_ia32_am_support(vfdiv, ia32_am_Source);
3001         fold_immediate(env, vfdiv, 2, 3);
3002
3003         SET_IA32_ORIG_NODE(vfdiv, ia32_get_old_node_name(env->cg, node));
3004
3005         FORCE_x87(env->cg);
3006
3007         return vfdiv;
3008 }
3009
3010 /**
3011  * Transforms a l_MulS into a "real" MulS node.
3012  *
3013  * @param env   The transformation environment
3014  * @return the created ia32 Mul node
3015  */
3016 static ir_node *gen_ia32_l_Mul(ia32_transform_env_t *env, ir_node *node) {
3017         ir_node *noreg = ia32_new_NoReg_gp(env->cg);
3018         ir_graph *irg = env->irg;
3019         dbg_info *dbgi = get_irn_dbg_info(node);
3020         ir_node *block = transform_node(env, get_nodes_block(node));
3021         ir_node *left = get_binop_left(node);
3022         ir_node *right = get_binop_right(node);
3023         ir_node *new_left = transform_node(env, left);
3024         ir_node *new_right = transform_node(env, right);
3025         ir_node *in[2];
3026
3027         /* l_Mul is already a mode_T node, so we create the Mul in the normal way   */
3028         /* and then skip the result Proj, because all needed Projs are already there. */
3029         ir_node *muls = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_left, new_right, new_NoMem());
3030         clear_ia32_commutative(muls);
3031         set_ia32_am_support(muls, ia32_am_Source);
3032         fold_immediate(env, muls, 2, 3);
3033
3034         /* check if EAX and EDX proj exist, add missing one */
3035         in[0] = new_rd_Proj(dbgi, irg, block, muls, mode_Iu, pn_EAX);
3036         in[1] = new_rd_Proj(dbgi, irg, block, muls, mode_Iu, pn_EDX);
3037         be_new_Keep(&ia32_reg_classes[CLASS_ia32_gp], irg, block, 2, in);
3038
3039         SET_IA32_ORIG_NODE(muls, ia32_get_old_node_name(env->cg, node));
3040
3041         return muls;
3042 }
3043
3044 GEN_LOWERED_SHIFT_OP(Shl)
3045 GEN_LOWERED_SHIFT_OP(Shr)
3046 GEN_LOWERED_SHIFT_OP(Sar)
3047
3048 /**
3049  * Transforms a l_ShlD/l_ShrD into a ShlD/ShrD. Those nodes have 3 data inputs:
3050  * op1 - target to be shifted
3051  * op2 - contains bits to be shifted into target
3052  * op3 - shift count
3053  * Only op3 can be an immediate.
3054  */
3055 static ir_node *gen_lowered_64bit_shifts(ia32_transform_env_t *env, ir_node *node,
3056                                          ir_node *op1, ir_node *op2,
3057                                          ir_node *count) {
3058         ir_node   *new_op = NULL;
3059         ir_graph  *irg    = env->irg;
3060         dbg_info  *dbgi    = get_irn_dbg_info(node);
3061         ir_node   *block  = transform_node(env, get_nodes_block(node));
3062         ir_node   *noreg  = ia32_new_NoReg_gp(env->cg);
3063         ir_node   *nomem  = new_NoMem();
3064         ir_node   *imm_op;
3065         ir_node   *new_op1 = transform_node(env, op1);
3066         ir_node   *new_op2 = transform_node(env, op2);
3067         ir_node   *new_count = transform_node(env, count);
3068         tarval    *tv;
3069
3070         assert(! mode_is_float(get_irn_mode(node)) && "Shift/Rotate with float not supported");
3071
3072         /* Check if immediate optimization is on and */
3073         /* if it's an operation with immediate.      */
3074         imm_op  = (env->cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_count) : NULL;
3075
3076         /* Limit imm_op within range imm8 */
3077         if (imm_op) {
3078                 tv = get_ia32_Immop_tarval(imm_op);
3079
3080                 if (tv) {
3081                         tv = tarval_mod(tv, new_tarval_from_long(32, get_tarval_mode(tv)));
3082                         set_ia32_Immop_tarval(imm_op, tv);
3083                 }
3084                 else {
3085                         imm_op = NULL;
3086                 }
3087         }
3088
3089         /* integer operations */
3090         if (imm_op) {
3091                 /* This is ShiftD with const */
3092                 DB((dbg, LEVEL_1, "ShiftD with immediate ..."));
3093
3094                 if (is_ia32_l_ShlD(node))
3095                         new_op = new_rd_ia32_ShlD(dbgi, irg, block, noreg, noreg,
3096                                                   new_op1, new_op2, noreg, nomem);
3097                 else
3098                         new_op = new_rd_ia32_ShrD(dbgi, irg, block, noreg, noreg,
3099                                                   new_op1, new_op2, noreg, nomem);
3100                 copy_ia32_Immop_attr(new_op, imm_op);
3101         }
3102         else {
3103                 /* This is a normal ShiftD */
3104                 DB((dbg, LEVEL_1, "ShiftD binop ..."));
3105                 if (is_ia32_l_ShlD(node))
3106                         new_op = new_rd_ia32_ShlD(dbgi, irg, block, noreg, noreg,
3107                                                   new_op1, new_op2, new_count, nomem);
3108                 else
3109                         new_op = new_rd_ia32_ShrD(dbgi, irg, block, noreg, noreg,
3110                                                   new_op1, new_op2, new_count, nomem);
3111         }
3112
3113         /* set AM support */
3114         // Matze: node has unsupported format (6inputs)
3115         //set_ia32_am_support(new_op, ia32_am_Dest);
3116
3117         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env->cg, node));
3118
3119         set_ia32_emit_cl(new_op);
3120
3121         return new_op;
3122 }
3123
3124 static ir_node *gen_ia32_l_ShlD(ia32_transform_env_t *env, ir_node *node) {
3125         return gen_lowered_64bit_shifts(env, node, get_irn_n(node, 0),
3126                                         get_irn_n(node, 1), get_irn_n(node, 2));
3127 }
3128
3129 static ir_node *gen_ia32_l_ShrD(ia32_transform_env_t *env, ir_node *node) {
3130         return gen_lowered_64bit_shifts(env, node, get_irn_n(node, 0),
3131                                         get_irn_n(node, 1), get_irn_n(node, 2));
3132 }
3133
3134 /**
3135  * In case SSE Unit is used, the node is transformed into a vfst + xLoad.
3136  */
3137 static ir_node *gen_ia32_l_X87toSSE(ia32_transform_env_t *env, ir_node *node) {
3138         ia32_code_gen_t *cg  = env->cg;
3139         ir_node         *res = NULL;
3140         ir_graph        *irg = env->irg;
3141         dbg_info        *dbgi = get_irn_dbg_info(node);
3142         ir_node       *block = transform_node(env, get_nodes_block(node));
3143         ir_node         *ptr = get_irn_n(node, 0);
3144         ir_node         *val = get_irn_n(node, 1);
3145         ir_node     *new_val = transform_node(env, val);
3146         ir_node         *mem = get_irn_n(node, 2);
3147         ir_node *noreg, *new_ptr, *new_mem;
3148
3149         if (USE_SSE2(cg)) {
3150                 return new_val;
3151         }
3152
3153         noreg = ia32_new_NoReg_gp(cg);
3154         new_mem = transform_node(env, mem);
3155         new_ptr = transform_node(env, ptr);
3156
3157         /* Store x87 -> MEM */
3158         res = new_rd_ia32_vfst(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3159         set_ia32_frame_ent(res, get_ia32_frame_ent(node));
3160         set_ia32_use_frame(res);
3161         set_ia32_ls_mode(res, get_ia32_ls_mode(node));
3162         set_ia32_am_support(res, ia32_am_Dest);
3163         set_ia32_am_flavour(res, ia32_B);
3164         set_ia32_op_type(res, ia32_AddrModeD);
3165
3166         /* Load MEM -> SSE */
3167         res = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, res);
3168         set_ia32_frame_ent(res, get_ia32_frame_ent(node));
3169         set_ia32_use_frame(res);
3170         set_ia32_ls_mode(res, get_ia32_ls_mode(node));
3171         set_ia32_am_support(res, ia32_am_Source);
3172         set_ia32_am_flavour(res, ia32_B);
3173         set_ia32_op_type(res, ia32_AddrModeS);
3174         res = new_rd_Proj(dbgi, irg, block, res, mode_xmm, pn_ia32_xLoad_res);
3175
3176         return res;
3177 }
3178
3179 /**
3180  * In case SSE Unit is used, the node is transformed into a xStore + vfld.
3181  */
3182 static ir_node *gen_ia32_l_SSEtoX87(ia32_transform_env_t *env, ir_node *node) {
3183         ia32_code_gen_t *cg     = env->cg;
3184         ir_graph        *irg    = env->irg;
3185         dbg_info        *dbgi    = get_irn_dbg_info(node);
3186         ir_node         *block  = transform_node(env, get_nodes_block(node));
3187         ir_node         *res    = NULL;
3188         ir_node         *ptr    = get_irn_n(node, 0);
3189         ir_node         *val    = get_irn_n(node, 1);
3190         ir_node         *mem    = get_irn_n(node, 2);
3191         ir_entity       *fent   = get_ia32_frame_ent(node);
3192         ir_mode         *lsmode = get_ia32_ls_mode(node);
3193         ir_node        *new_val = transform_node(env, val);
3194         ir_node *noreg, *new_ptr, *new_mem;
3195         int             offs    = 0;
3196
3197         if (!USE_SSE2(cg)) {
3198                 /* SSE unit is not used -> skip this node. */
3199                 return new_val;
3200         }
3201
3202         noreg = ia32_new_NoReg_gp(cg);
3203         new_val = transform_node(env, val);
3204         new_ptr = transform_node(env, ptr);
3205         new_mem = transform_node(env, mem);
3206
3207         /* Store SSE -> MEM */
3208         if (is_ia32_xLoad(skip_Proj(new_val))) {
3209                 ir_node *ld = skip_Proj(new_val);
3210
3211                 /* we can vfld the value directly into the fpu */
3212                 fent = get_ia32_frame_ent(ld);
3213                 ptr  = get_irn_n(ld, 0);
3214                 offs = get_ia32_am_offs_int(ld);
3215         } else {
3216                 res = new_rd_ia32_xStore(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3217                 set_ia32_frame_ent(res, fent);
3218                 set_ia32_use_frame(res);
3219                 set_ia32_ls_mode(res, lsmode);
3220                 set_ia32_am_support(res, ia32_am_Dest);
3221                 set_ia32_am_flavour(res, ia32_B);
3222                 set_ia32_op_type(res, ia32_AddrModeD);
3223                 mem = res;
3224         }
3225
3226         /* Load MEM -> x87 */
3227         res = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, new_mem);
3228         set_ia32_frame_ent(res, fent);
3229         set_ia32_use_frame(res);
3230         set_ia32_ls_mode(res, lsmode);
3231         add_ia32_am_offs_int(res, offs);
3232         set_ia32_am_support(res, ia32_am_Source);
3233         set_ia32_am_flavour(res, ia32_B);
3234         set_ia32_op_type(res, ia32_AddrModeS);
3235         res = new_rd_Proj(dbgi, irg, block, res, mode_vfp, pn_ia32_vfld_res);
3236
3237         return res;
3238 }
3239
3240 /*********************************************************
3241  *                  _             _      _
3242  *                 (_)           | |    (_)
3243  *  _ __ ___   __ _ _ _ __     __| |_ __ ___   _____ _ __
3244  * | '_ ` _ \ / _` | | '_ \   / _` | '__| \ \ / / _ \ '__|
3245  * | | | | | | (_| | | | | | | (_| | |  | |\ V /  __/ |
3246  * |_| |_| |_|\__,_|_|_| |_|  \__,_|_|  |_| \_/ \___|_|
3247  *
3248  *********************************************************/
3249
3250 /**
3251  * the BAD transformer.
3252  */
3253 static ir_node *bad_transform(ia32_transform_env_t *env, ir_node *node) {
3254         panic("No transform function for %+F available.\n", node);
3255         return NULL;
3256 }
3257
3258 static ir_node *gen_End(ia32_transform_env_t *env, ir_node *node) {
3259         /* end has to be duplicated manually because we need a dynamic in array */
3260         ir_graph *irg = env->irg;
3261         dbg_info *dbgi = get_irn_dbg_info(node);
3262         ir_node *block = transform_node(env, get_nodes_block(node));
3263         int i, arity;
3264         ir_node *new_end;
3265
3266         new_end = new_ir_node(dbgi, irg, block, op_End, mode_X, -1, NULL);
3267         copy_node_attr(node, new_end);
3268         duplicate_deps(env, node, new_end);
3269
3270         set_irg_end(irg, new_end);
3271         set_new_node(new_end, new_end);
3272
3273         /* transform preds */
3274         arity = get_irn_arity(node);
3275         for(i = 0; i < arity; ++i) {
3276                 ir_node *in = get_irn_n(node, i);
3277                 ir_node *new_in = transform_node(env, in);
3278
3279                 add_End_keepalive(new_end, new_in);
3280         }
3281
3282         return new_end;
3283 }
3284
3285 static ir_node *gen_Block(ia32_transform_env_t *env, ir_node *node) {
3286         ir_graph *irg = env->irg;
3287         dbg_info *dbgi = get_irn_dbg_info(node);
3288         ir_node *start_block = env->old_anchors[anchor_start_block];
3289         ir_node *block;
3290         int i, arity;
3291
3292         /*
3293          * We replace the ProjX from the start node with a jump,
3294          * so the startblock has no preds anymore now
3295          */
3296         if(node == start_block) {
3297                 return new_rd_Block(dbgi, irg, 0, NULL);
3298         }
3299
3300         /* we use the old blocks for now, because jumps allow cycles in the graph
3301          * we have to fix this later */
3302         block = new_ir_node(dbgi, irg, NULL, get_irn_op(node), get_irn_mode(node),
3303                             get_irn_arity(node), get_irn_in(node) + 1);
3304         copy_node_attr(node, block);
3305
3306 #ifdef DEBUG_libfirm
3307         block->node_nr = node->node_nr;
3308 #endif
3309         set_new_node(node, block);
3310
3311         /* put the preds in the worklist */
3312         arity = get_irn_arity(node);
3313         for(i = 0; i < arity; ++i) {
3314                 ir_node *in = get_irn_n(node, i);
3315                 pdeq_putr(env->worklist, in);
3316         }
3317
3318         return block;
3319 }
3320
3321 static ir_node *gen_Proj_be_AddSP(ia32_transform_env_t *env, ir_node *node) {
3322         ir_graph *irg = env->irg;
3323         ir_node *block = transform_node(env, get_nodes_block(node));
3324         dbg_info *dbgi = get_irn_dbg_info(node);
3325         ir_node *pred = get_Proj_pred(node);
3326         ir_node *new_pred = transform_node(env, pred);
3327         long proj = get_Proj_proj(node);
3328
3329         if(proj == pn_be_AddSP_res) {
3330                 ir_node *res = new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_AddSP_stack);
3331                 arch_set_irn_register(env->cg->arch_env, res, &ia32_gp_regs[REG_ESP]);
3332                 return res;
3333         } else if(proj == pn_be_AddSP_M) {
3334                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_AddSP_M);
3335         }
3336
3337         assert(0);
3338         return new_rd_Unknown(irg, get_irn_mode(node));
3339 }
3340
3341 static ir_node *gen_Proj_be_SubSP(ia32_transform_env_t *env, ir_node *node) {
3342         ir_graph *irg = env->irg;
3343         ir_node *block = transform_node(env, get_nodes_block(node));
3344         dbg_info *dbgi = get_irn_dbg_info(node);
3345         ir_node *pred = get_Proj_pred(node);
3346         ir_node *new_pred = transform_node(env, pred);
3347         long proj = get_Proj_proj(node);
3348
3349         if(proj == pn_be_SubSP_res) {
3350                 ir_node *res = new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_AddSP_stack);
3351                 arch_set_irn_register(env->cg->arch_env, res, &ia32_gp_regs[REG_ESP]);
3352                 return res;
3353         } else if(proj == pn_be_SubSP_M) {
3354                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_SubSP_M);
3355         }
3356
3357         assert(0);
3358         return new_rd_Unknown(irg, get_irn_mode(node));
3359 }
3360
3361 static ir_node *gen_Proj_Load(ia32_transform_env_t *env, ir_node *node) {
3362         ir_graph *irg = env->irg;
3363         ir_node *block = transform_node(env, get_nodes_block(node));
3364         dbg_info *dbgi = get_irn_dbg_info(node);
3365         ir_node *pred = get_Proj_pred(node);
3366         ir_node *new_pred = transform_node(env, pred);
3367         long proj = get_Proj_proj(node);
3368
3369         /* renumber the proj */
3370         if(is_ia32_Load(new_pred)) {
3371                 if(proj == pn_Load_res) {
3372                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Load_res);
3373                 } else if(proj == pn_Load_M) {
3374                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Load_M);
3375                 }
3376         } else if(is_ia32_xLoad(new_pred)) {
3377                 if(proj == pn_Load_res) {
3378                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_xmm, pn_ia32_xLoad_res);
3379                 } else if(proj == pn_Load_M) {
3380                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_xLoad_M);
3381                 }
3382         } else if(is_ia32_vfld(new_pred)) {
3383                 if(proj == pn_Load_res) {
3384                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfld_res);
3385                 } else if(proj == pn_Load_M) {
3386                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfld_M);
3387                 }
3388         }
3389
3390         assert(0);
3391         return new_rd_Unknown(irg, get_irn_mode(node));
3392 }
3393
3394 static ir_node *gen_Proj_DivMod(ia32_transform_env_t *env, ir_node *node) {
3395         ir_graph *irg = env->irg;
3396         dbg_info *dbgi = get_irn_dbg_info(node);
3397         ir_node *block = transform_node(env, get_nodes_block(node));
3398         ir_mode *mode = get_irn_mode(node);
3399
3400         ir_node *pred = get_Proj_pred(node);
3401         ir_node *new_pred = transform_node(env, pred);
3402         long proj = get_Proj_proj(node);
3403
3404         assert(is_ia32_Div(new_pred) || is_ia32_IDiv(new_pred));
3405
3406         switch(get_irn_opcode(pred)) {
3407         case iro_Div:
3408                 switch(proj) {
3409                 case pn_Div_M:
3410                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3411                 case pn_Div_res:
3412                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_div_res);
3413                 default:
3414                         break;
3415                 }
3416                 break;
3417         case iro_Mod:
3418                 switch(proj) {
3419                 case pn_Mod_M:
3420                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3421                 case pn_Mod_res:
3422                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_mod_res);
3423                 default:
3424                         break;
3425                 }
3426                 break;
3427         case iro_DivMod:
3428                 switch(proj) {
3429                 case pn_DivMod_M:
3430                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3431                 case pn_DivMod_res_div:
3432                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_div_res);
3433                 case pn_DivMod_res_mod:
3434                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_mod_res);
3435                 default:
3436                         break;
3437                 }
3438                 break;
3439         default:
3440                 break;
3441         }
3442
3443         assert(0);
3444         return new_rd_Unknown(irg, mode);
3445 }
3446
3447 static ir_node *gen_Proj_CopyB(ia32_transform_env_t *env, ir_node *node)
3448 {
3449         ir_graph *irg = env->irg;
3450         dbg_info *dbgi = get_irn_dbg_info(node);
3451         ir_node *block = transform_node(env, get_nodes_block(node));
3452         ir_mode *mode = get_irn_mode(node);
3453
3454         ir_node *pred = get_Proj_pred(node);
3455         ir_node *new_pred = transform_node(env, pred);
3456         long proj = get_Proj_proj(node);
3457
3458         switch(proj) {
3459         case pn_CopyB_M_regular:
3460                 if(is_ia32_CopyB_i(new_pred)) {
3461                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3462                                            pn_ia32_CopyB_i_M);
3463                 } else if(is_ia32_CopyB(new_pred)) {
3464                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3465                                            pn_ia32_CopyB_M);
3466                 }
3467                 break;
3468         default:
3469                 break;
3470         }
3471
3472         assert(0);
3473         return new_rd_Unknown(irg, mode);
3474 }
3475
3476 static ir_node *gen_Proj_l_vfdiv(ia32_transform_env_t *env, ir_node *node)
3477 {
3478         ir_graph *irg = env->irg;
3479         dbg_info *dbgi = get_irn_dbg_info(node);
3480         ir_node *block = transform_node(env, get_nodes_block(node));
3481         ir_mode *mode = get_irn_mode(node);
3482
3483         ir_node *pred = get_Proj_pred(node);
3484         ir_node *new_pred = transform_node(env, pred);
3485         long proj = get_Proj_proj(node);
3486
3487         switch(proj) {
3488         case pn_ia32_l_vfdiv_M:
3489                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfdiv_M);
3490         case pn_ia32_l_vfdiv_res:
3491                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfdiv_res);
3492         default:
3493                 assert(0);
3494         }
3495
3496         return new_rd_Unknown(irg, mode);
3497 }
3498
3499 static ir_node *gen_Proj_Quot(ia32_transform_env_t *env, ir_node *node)
3500 {
3501         ir_graph *irg = env->irg;
3502         dbg_info *dbgi = get_irn_dbg_info(node);
3503         ir_node *block = transform_node(env, get_nodes_block(node));
3504         ir_mode *mode = get_irn_mode(node);
3505
3506         ir_node *pred = get_Proj_pred(node);
3507         ir_node *new_pred = transform_node(env, pred);
3508         long proj = get_Proj_proj(node);
3509
3510         switch(proj) {
3511         case pn_Quot_M:
3512                 if(is_ia32_xDiv(new_pred)) {
3513                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3514                                            pn_ia32_xDiv_M);
3515                 } else if(is_ia32_vfdiv(new_pred)) {
3516                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M,
3517                                            pn_ia32_vfdiv_M);
3518                 }
3519                 break;
3520         case pn_Quot_res:
3521                 if(is_ia32_xDiv(new_pred)) {
3522                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_xmm,
3523                                            pn_ia32_xDiv_res);
3524                 } else if(is_ia32_vfdiv(new_pred)) {
3525                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp,
3526                                            pn_ia32_vfdiv_res);
3527                 }
3528                 break;
3529         default:
3530                 break;
3531         }
3532
3533         assert(0);
3534         return new_rd_Unknown(irg, mode);
3535 }
3536
3537 static ir_node *gen_Proj_tls(ia32_transform_env_t *env, ir_node *node) {
3538         ir_graph *irg = env->irg;
3539         //dbg_info *dbgi = get_irn_dbg_info(node);
3540         dbg_info *dbgi = NULL;
3541         ir_node *block = transform_node(env, get_nodes_block(node));
3542
3543         ir_node *res = new_rd_ia32_LdTls(dbgi, irg, block, mode_Iu);
3544
3545         return res;
3546 }
3547
3548 static ir_node *gen_Proj_be_Call(ia32_transform_env_t *env, ir_node *node) {
3549         ir_graph *irg = env->irg;
3550         dbg_info *dbgi = get_irn_dbg_info(node);
3551         long proj = get_Proj_proj(node);
3552         ir_mode *mode = get_irn_mode(node);
3553         ir_node *block = transform_node(env, get_nodes_block(node));
3554         ir_node *sse_load;
3555         ir_node *call = get_Proj_pred(node);
3556         ir_node *new_call = transform_node(env, call);
3557         const arch_register_class_t *cls;
3558
3559         /* The following is kinda tricky: If we're using SSE, then we have to
3560          * move the result value of the call in floating point registers to an
3561          * xmm register, we therefore construct a GetST0 -> xLoad sequence
3562          * after the call, we have to make sure to correctly make the
3563          * MemProj and the result Proj use these 2 nodes
3564          */
3565         if(proj == pn_be_Call_M_regular) {
3566                 // get new node for result, are we doing the sse load/store hack?
3567                 ir_node *call_res = be_get_Proj_for_pn(call, pn_be_Call_first_res);
3568                 ir_node *call_res_new;
3569                 ir_node *call_res_pred = NULL;
3570
3571                 if(call_res != NULL) {
3572                         call_res_new = transform_node(env, call_res);
3573                         call_res_pred = get_Proj_pred(call_res_new);
3574                 }
3575
3576                 if(call_res_pred == NULL || be_is_Call(call_res_pred)) {
3577                         return new_rd_Proj(dbgi, irg, block, new_call, mode_M, pn_be_Call_M_regular);
3578                 } else {
3579                         assert(is_ia32_xLoad(call_res_pred));
3580                         return new_rd_Proj(dbgi, irg, block, call_res_pred, mode_M, pn_ia32_xLoad_M);
3581                 }
3582         }
3583         if(proj == pn_be_Call_first_res && mode_is_float(mode)
3584                         && USE_SSE2(env->cg)) {
3585                 ir_node *fstp;
3586                 ir_node *frame = get_irg_frame(irg);
3587                 ir_node *noreg = ia32_new_NoReg_gp(env->cg);
3588                 ir_node *p;
3589                 ir_node *call_mem = be_get_Proj_for_pn(call, pn_be_Call_M_regular);
3590                 ir_node *keepin[1];
3591                 const arch_register_class_t *cls;
3592
3593                 /* in case there is no memory output: create one to serialize the copy FPU -> SSE */
3594                 call_mem = new_rd_Proj(dbgi, irg, block, new_call, mode_M, pn_be_Call_M_regular);
3595
3596                 /* store st(0) onto stack */
3597                 fstp = new_rd_ia32_GetST0(dbgi, irg, block, frame, noreg, call_mem);
3598
3599                 set_ia32_ls_mode(fstp, mode);
3600                 set_ia32_op_type(fstp, ia32_AddrModeD);
3601                 set_ia32_use_frame(fstp);
3602                 set_ia32_am_flavour(fstp, ia32_am_B);
3603                 set_ia32_am_support(fstp, ia32_am_Dest);
3604
3605                 /* load into SSE register */
3606                 sse_load = new_rd_ia32_xLoad(dbgi, irg, block, frame, noreg, fstp);
3607                 set_ia32_ls_mode(sse_load, mode);
3608                 set_ia32_op_type(sse_load, ia32_AddrModeS);
3609                 set_ia32_use_frame(sse_load);
3610                 set_ia32_am_flavour(sse_load, ia32_am_B);
3611                 set_ia32_am_support(sse_load, ia32_am_Source);
3612
3613                 sse_load = new_rd_Proj(dbgi, irg, block, sse_load, mode_xmm, pn_ia32_xLoad_res);
3614
3615                 /* now: create new Keep whith all former ins and one additional in - the result Proj */
3616
3617                 /* get a Proj representing a caller save register */
3618                 p = be_get_Proj_for_pn(call, pn_be_Call_first_res + 1);
3619                 assert(is_Proj(p) && "Proj expected.");
3620
3621                 /* user of the the proj is the Keep */
3622                 p = get_edge_src_irn(get_irn_out_edge_first(p));
3623                 assert(be_is_Keep(p) && "Keep expected.");
3624
3625                 /* keep the result */
3626                 cls = arch_get_irn_reg_class(env->cg->arch_env, sse_load, -1);
3627                 keepin[0] = sse_load;
3628                 be_new_Keep(cls, irg, block, 1, keepin);
3629
3630                 return sse_load;
3631         }
3632
3633         /* transform call modes */
3634         if (mode_is_data(mode)) {
3635                 cls = arch_get_irn_reg_class(env->cg->arch_env, node, -1);
3636                 mode = cls->mode;
3637         }
3638
3639         return new_rd_Proj(dbgi, irg, block, new_call, mode, proj);
3640 }
3641
3642 static ir_node *gen_Proj(ia32_transform_env_t *env, ir_node *node) {
3643         ir_graph *irg = env->irg;
3644         dbg_info *dbgi = get_irn_dbg_info(node);
3645         ir_node *pred = get_Proj_pred(node);
3646         long proj = get_Proj_proj(node);
3647
3648         if(is_Store(pred) || be_is_FrameStore(pred)) {
3649                 if(proj == pn_Store_M) {
3650                         return transform_node(env, pred);
3651                 } else {
3652                         assert(0);
3653                         return new_r_Bad(irg);
3654                 }
3655         } else if(is_Load(pred) || be_is_FrameLoad(pred)) {
3656                 return gen_Proj_Load(env, node);
3657         } else if(is_Div(pred) || is_Mod(pred) || is_DivMod(pred)) {
3658                 return gen_Proj_DivMod(env, node);
3659         } else if(is_CopyB(pred)) {
3660                 return gen_Proj_CopyB(env, node);
3661         } else if(is_Quot(pred)) {
3662                 return gen_Proj_Quot(env, node);
3663         } else if(is_ia32_l_vfdiv(pred)) {
3664                 return gen_Proj_l_vfdiv(env, node);
3665         } else if(be_is_SubSP(pred)) {
3666                 return gen_Proj_be_SubSP(env, node);
3667         } else if(be_is_AddSP(pred)) {
3668                 return gen_Proj_be_AddSP(env, node);
3669         } else if(be_is_Call(pred)) {
3670                 return gen_Proj_be_Call(env, node);
3671         } else if(get_irn_op(pred) == op_Start) {
3672                 if(proj == pn_Start_X_initial_exec) {
3673                         ir_node *block = get_nodes_block(pred);
3674                         ir_node *jump;
3675
3676                         block = transform_node(env, block);
3677                         // we exchange the ProjX with a jump
3678                         jump = new_rd_Jmp(dbgi, irg, block);
3679                         ir_fprintf(stderr, "created jump: %+F\n", jump);
3680                         return jump;
3681                 }
3682                 if(node == env->old_anchors[anchor_tls]) {
3683                         return gen_Proj_tls(env, node);
3684                 }
3685         } else {
3686                 ir_node *new_pred = transform_node(env, pred);
3687                 ir_node *block    = transform_node(env, get_nodes_block(node));
3688                 ir_mode *mode     = get_irn_mode(node);
3689                 if (mode_needs_gp_reg(mode)) {
3690                         return new_r_Proj(irg, block, new_pred, mode_Iu, get_Proj_proj(node));
3691                 }
3692         }
3693
3694         return duplicate_node(env, node);
3695 }
3696
3697 /**
3698  * Enters all transform functions into the generic pointer
3699  */
3700 static void register_transformers(void) {
3701         ir_op *op_Max, *op_Min, *op_Mulh;
3702
3703         /* first clear the generic function pointer for all ops */
3704         clear_irp_opcodes_generic_func();
3705
3706 #define GEN(a)   { transform_func *func = gen_##a; op_##a->ops.generic = (op_func) func; }
3707 #define BAD(a)   op_##a->ops.generic = (op_func)bad_transform
3708
3709         GEN(Add);
3710         GEN(Sub);
3711         GEN(Mul);
3712         GEN(And);
3713         GEN(Or);
3714         GEN(Eor);
3715
3716         GEN(Shl);
3717         GEN(Shr);
3718         GEN(Shrs);
3719         GEN(Rot);
3720
3721         GEN(Quot);
3722
3723         GEN(Div);
3724         GEN(Mod);
3725         GEN(DivMod);
3726
3727         GEN(Minus);
3728         GEN(Conv);
3729         GEN(Abs);
3730         GEN(Not);
3731
3732         GEN(Load);
3733         GEN(Store);
3734         GEN(Cond);
3735
3736         GEN(CopyB);
3737         //GEN(Mux);
3738         BAD(Mux);
3739         GEN(Psi);
3740         GEN(Proj);
3741         GEN(Phi);
3742
3743         GEN(Block);
3744         GEN(End);
3745
3746         /* transform ops from intrinsic lowering */
3747         GEN(ia32_l_Add);
3748         GEN(ia32_l_Adc);
3749         GEN(ia32_l_Sub);
3750         GEN(ia32_l_Sbb);
3751         GEN(ia32_l_Neg);
3752         GEN(ia32_l_Mul);
3753         GEN(ia32_l_Xor);
3754         GEN(ia32_l_IMul);
3755         GEN(ia32_l_Shl);
3756         GEN(ia32_l_Shr);
3757         GEN(ia32_l_Sar);
3758         GEN(ia32_l_ShlD);
3759         GEN(ia32_l_ShrD);
3760         GEN(ia32_l_vfdiv);
3761         GEN(ia32_l_vfprem);
3762         GEN(ia32_l_vfmul);
3763         GEN(ia32_l_vfsub);
3764         GEN(ia32_l_vfild);
3765         GEN(ia32_l_Load);
3766         /* GEN(ia32_l_vfist); TODO */
3767         GEN(ia32_l_Store);
3768         GEN(ia32_l_X87toSSE);
3769         GEN(ia32_l_SSEtoX87);
3770
3771         GEN(Const);
3772         GEN(SymConst);
3773
3774         /* we should never see these nodes */
3775         BAD(Raise);
3776         BAD(Sel);
3777         BAD(InstOf);
3778         BAD(Cast);
3779         BAD(Free);
3780         BAD(Tuple);
3781         BAD(Id);
3782         //BAD(Bad);
3783         BAD(Confirm);
3784         BAD(Filter);
3785         BAD(CallBegin);
3786         BAD(EndReg);
3787         BAD(EndExcept);
3788
3789         /* handle generic backend nodes */
3790         GEN(be_FrameAddr);
3791         //GEN(be_Call);
3792         GEN(be_Return);
3793         GEN(be_FrameLoad);
3794         GEN(be_FrameStore);
3795         GEN(be_StackParam);
3796         GEN(be_AddSP);
3797         GEN(be_SubSP);
3798
3799         /* set the register for all Unknown nodes */
3800         GEN(Unknown);
3801
3802         op_Max = get_op_Max();
3803         if (op_Max)
3804                 GEN(Max);
3805         op_Min = get_op_Min();
3806         if (op_Min)
3807                 GEN(Min);
3808         op_Mulh = get_op_Mulh();
3809         if (op_Mulh)
3810                 GEN(Mulh);
3811
3812 #undef GEN
3813 #undef BAD
3814 }
3815
3816 static void duplicate_deps(ia32_transform_env_t *env, ir_node *old_node,
3817                            ir_node *new_node)
3818 {
3819         int i;
3820         int deps = get_irn_deps(old_node);
3821
3822         for(i = 0; i < deps; ++i) {
3823                 ir_node *dep = get_irn_dep(old_node, i);
3824                 ir_node *new_dep = transform_node(env, dep);
3825
3826                 add_irn_dep(new_node, new_dep);
3827         }
3828 }
3829
3830 static ir_node *duplicate_node(ia32_transform_env_t *env, ir_node *node)
3831 {
3832         ir_graph *irg = env->irg;
3833         dbg_info *dbgi = get_irn_dbg_info(node);
3834         ir_mode *mode = get_irn_mode(node);
3835         ir_op     *op = get_irn_op(node);
3836         ir_node *block;
3837         ir_node *new_node;
3838         int i, arity;
3839
3840         block = transform_node(env, get_nodes_block(node));
3841
3842         arity = get_irn_arity(node);
3843         if(op->opar == oparity_dynamic) {
3844                 new_node = new_ir_node(dbgi, irg, block, op, mode, -1, NULL);
3845                 for(i = 0; i < arity; ++i) {
3846                         ir_node *in = get_irn_n(node, i);
3847                         in = transform_node(env, in);
3848                         add_irn_n(new_node, in);
3849                 }
3850         } else {
3851                 ir_node **ins = alloca(arity * sizeof(ins[0]));
3852                 for(i = 0; i < arity; ++i) {
3853                         ir_node *in = get_irn_n(node, i);
3854                         ins[i] = transform_node(env, in);
3855                 }
3856
3857                 new_node = new_ir_node(dbgi, irg, block, op, mode, arity, ins);
3858         }
3859
3860         copy_node_attr(node, new_node);
3861         duplicate_deps(env, node, new_node);
3862
3863         return new_node;
3864 }
3865
3866 static ir_node *transform_node(ia32_transform_env_t *env, ir_node *node)
3867 {
3868         ir_node *new_node;
3869         ir_op   *op = get_irn_op(node);
3870
3871         if(irn_visited(node)) {
3872                 assert(get_new_node(node) != NULL);
3873                 return get_new_node(node);
3874         }
3875
3876         mark_irn_visited(node);
3877         DEBUG_ONLY(set_new_node(node, NULL));
3878
3879         if (op->ops.generic) {
3880                 transform_func *transform = (transform_func *)op->ops.generic;
3881
3882                 new_node = (*transform)(env, node);
3883                 assert(new_node != NULL);
3884         } else {
3885                 new_node = duplicate_node(env, node);
3886         }
3887         //ir_fprintf(stderr, "%+F -> %+F\n", node, new_node);
3888
3889         set_new_node(node, new_node);
3890         mark_irn_visited(new_node);
3891         hook_dead_node_elim_subst(current_ir_graph, node, new_node);
3892         return new_node;
3893 }
3894
3895 static void fix_loops(ia32_transform_env_t *env, ir_node *node)
3896 {
3897         int i, arity;
3898
3899         if(irn_visited(node))
3900                 return;
3901         mark_irn_visited(node);
3902
3903         assert(node_is_in_irgs_storage(env->irg, node));
3904
3905         if(!is_Block(node)) {
3906                 ir_node *block = get_nodes_block(node);
3907                 ir_node *new_block = (ir_node*) get_irn_link(block);
3908
3909                 if(new_block != NULL) {
3910                         set_nodes_block(node, new_block);
3911                         block = new_block;
3912                 }
3913
3914                 fix_loops(env, block);
3915         }
3916
3917         arity = get_irn_arity(node);
3918         for(i = 0; i < arity; ++i) {
3919                 ir_node *in = get_irn_n(node, i);
3920                 ir_node *new = (ir_node*) get_irn_link(in);
3921
3922                 if(new != NULL && new != in) {
3923                         set_irn_n(node, i, new);
3924                         in = new;
3925                 }
3926
3927                 fix_loops(env, in);
3928         }
3929
3930         arity = get_irn_deps(node);
3931         for(i = 0; i < arity; ++i) {
3932                 ir_node *in = get_irn_dep(node, i);
3933                 ir_node *new = (ir_node*) get_irn_link(in);
3934
3935                 if(new != NULL && new != in) {
3936                         set_irn_dep(node, i, new);
3937                         in = new;
3938                 }
3939
3940                 fix_loops(env, in);
3941         }
3942 }
3943
3944 static void pre_transform_node(ir_node **place, ia32_transform_env_t *env)
3945 {
3946         if(*place == NULL)
3947                 return;
3948
3949         *place = transform_node(env, *place);
3950 }
3951
3952 static void transform_nodes(ia32_code_gen_t *cg)
3953 {
3954         int i;
3955         ir_graph *irg = cg->irg;
3956         ir_node *old_end;
3957         ia32_transform_env_t env;
3958
3959         hook_dead_node_elim(irg, 1);
3960
3961         inc_irg_visited(irg);
3962
3963         env.irg = irg;
3964         env.cg = cg;
3965         env.visited = get_irg_visited(irg);
3966         env.worklist = new_pdeq();
3967         env.old_anchors = alloca(anchor_max * sizeof(env.old_anchors[0]));
3968
3969         old_end = get_irg_end(irg);
3970
3971         /* put all anchor nodes in the worklist */
3972         for(i = 0; i < anchor_max; ++i) {
3973                 ir_node *anchor = irg->anchors[i];
3974                 if(anchor == NULL)
3975                         continue;
3976                 pdeq_putr(env.worklist, anchor);
3977
3978                 // remember anchor
3979                 env.old_anchors[i] = anchor;
3980                 // and set it to NULL to make sure we don't accidently use it
3981                 irg->anchors[i] = NULL;
3982         }
3983
3984         // pre transform some anchors (so they are available in the other transform
3985         // functions)
3986         set_irg_bad(irg, transform_node(&env, env.old_anchors[anchor_bad]));
3987         set_irg_no_mem(irg, transform_node(&env, env.old_anchors[anchor_no_mem]));
3988         set_irg_start_block(irg, transform_node(&env, env.old_anchors[anchor_start_block]));
3989         set_irg_start(irg, transform_node(&env, env.old_anchors[anchor_start]));
3990         set_irg_frame(irg, transform_node(&env, env.old_anchors[anchor_frame]));
3991
3992         pre_transform_node(&cg->unknown_gp, &env);
3993         pre_transform_node(&cg->unknown_vfp, &env);
3994         pre_transform_node(&cg->unknown_xmm, &env);
3995         pre_transform_node(&cg->noreg_gp, &env);
3996         pre_transform_node(&cg->noreg_vfp, &env);
3997         pre_transform_node(&cg->noreg_xmm, &env);
3998
3999         /* process worklist (this should transform all nodes in the graph) */
4000         while(!pdeq_empty(env.worklist)) {
4001                 ir_node *node = pdeq_getl(env.worklist);
4002                 transform_node(&env, node);
4003         }
4004
4005         /* fix loops and set new anchors*/
4006         inc_irg_visited(irg);
4007         for(i = 0; i < anchor_max; ++i) {
4008                 ir_node *anchor = env.old_anchors[i];
4009                 if(anchor == NULL)
4010                         continue;
4011
4012                 anchor = get_irn_link(anchor);
4013                 fix_loops(&env, anchor);
4014                 assert(irg->anchors[i] == NULL || irg->anchors[i] == anchor);
4015                 irg->anchors[i] = anchor;
4016         }
4017
4018         del_pdeq(env.worklist);
4019         free_End(old_end);
4020         hook_dead_node_elim(irg, 0);
4021 }
4022
4023 void ia32_transform_graph(ia32_code_gen_t *cg)
4024 {
4025         ir_graph *irg = cg->irg;
4026         be_irg_t *birg = cg->birg;
4027         ir_graph *old_current_ir_graph = current_ir_graph;
4028         int old_interprocedural_view = get_interprocedural_view();
4029         struct obstack *old_obst = NULL;
4030         struct obstack *new_obst = NULL;
4031
4032         current_ir_graph = irg;
4033         set_interprocedural_view(0);
4034         register_transformers();
4035
4036         /* most analysis info is wrong after transformation */
4037         free_callee_info(irg);
4038         free_irg_outs(irg);
4039         irg->outs_state = outs_none;
4040         free_trouts();
4041         free_loop_information(irg);
4042         set_irg_doms_inconsistent(irg);
4043         be_invalidate_liveness(birg);
4044         be_invalidate_dom_front(birg);
4045
4046         /* create a new obstack */
4047         old_obst = irg->obst;
4048         new_obst = xmalloc(sizeof(*new_obst));
4049         obstack_init(new_obst);
4050         irg->obst = new_obst;
4051         irg->last_node_idx = 0;
4052
4053         /* create new value table for CSE */
4054         del_identities(irg->value_table);
4055         irg->value_table = new_identities();
4056
4057         /* do the main transformation */
4058         transform_nodes(cg);
4059
4060         /* we don't want the globals anchor anymore */
4061         set_irg_globals(irg, new_r_Bad(irg));
4062
4063         /* free the old obstack */
4064         obstack_free(old_obst, 0);
4065         xfree(old_obst);
4066
4067         /* restore state */
4068         current_ir_graph = old_current_ir_graph;
4069         set_interprocedural_view(old_interprocedural_view);
4070
4071         /* recalculate edges */
4072         edges_deactivate(irg);
4073         edges_activate(irg);
4074 }
4075
4076 /**
4077  * Transforms a psi condition.
4078  */
4079 static void transform_psi_cond(ir_node *cond, ir_mode *mode, ia32_code_gen_t *cg) {
4080         int i;
4081
4082         /* if the mode is target mode, we have already seen this part of the tree */
4083         if (get_irn_mode(cond) == mode)
4084                 return;
4085
4086         assert(get_irn_mode(cond) == mode_b && "logical operator for condition must be mode_b");
4087
4088         set_irn_mode(cond, mode);
4089
4090         for (i = get_irn_arity(cond) - 1; i >= 0; i--) {
4091                 ir_node *in = get_irn_n(cond, i);
4092
4093                 /* if in is a compare: transform into Set/xCmp */
4094                 if (is_Proj(in)) {
4095                         ir_node  *new_op = NULL;
4096                         ir_node  *cmp    = get_Proj_pred(in);
4097                         ir_node  *cmp_a  = get_Cmp_left(cmp);
4098                         ir_node  *cmp_b  = get_Cmp_right(cmp);
4099                         dbg_info *dbgi    = get_irn_dbg_info(cmp);
4100                         ir_graph *irg    = get_irn_irg(cmp);
4101                         ir_node  *block  = get_nodes_block(cmp);
4102                         ir_node  *noreg  = ia32_new_NoReg_gp(cg);
4103                         ir_node  *nomem  = new_rd_NoMem(irg);
4104                         int      pnc     = get_Proj_proj(in);
4105
4106                         /* this is a compare */
4107                         if (mode_is_float(mode)) {
4108                                 /* Psi is float, we need a floating point compare */
4109
4110                                 if (USE_SSE2(cg)) {
4111                                         ir_mode *m = get_irn_mode(cmp_a);
4112                                         /* SSE FPU */
4113                                         if (! mode_is_float(m)) {
4114                                                 cmp_a = gen_sse_conv_int2float(cg, dbgi, irg, block, cmp_a, cmp_a, mode);
4115                                                 cmp_b = gen_sse_conv_int2float(cg, dbgi, irg, block, cmp_b, cmp_b, mode);
4116                                         } else if (m == mode_F) {
4117                                                 /* we convert cmp values always to double, to get correct bitmask with cmpsd */
4118                                                 cmp_a = gen_sse_conv_f2d(cg, dbgi, irg, block, cmp_a, cmp_a);
4119                                                 cmp_b = gen_sse_conv_f2d(cg, dbgi, irg, block, cmp_b, cmp_b);
4120                                         }
4121
4122                                         new_op = new_rd_ia32_xCmp(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
4123                                         set_ia32_pncode(new_op, pnc);
4124                                         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, cmp));
4125                                 } else {
4126                                         /* x87 FPU */
4127                                         assert(0);
4128                                 }
4129                         } else {
4130                                 /* integer Psi */
4131                                 construct_binop_func *set_func  = NULL;
4132
4133                                 if (mode_is_float(get_irn_mode(cmp_a))) {
4134                                         /* 1st case: compare operands are floats */
4135                                         FP_USED(cg);
4136
4137                                         if (USE_SSE2(cg)) {
4138                                                 /* SSE FPU */
4139                                                 set_func  = new_rd_ia32_xCmpSet;
4140                                         } else {
4141                                                 /* x87 FPU */
4142                                                 set_func  = new_rd_ia32_vfCmpSet;
4143                                         }
4144
4145                                         pnc &= 7; /* fp compare -> int compare */
4146                                 } else {
4147                                         /* 2nd case: compare operand are integer too */
4148                                         set_func  = new_rd_ia32_CmpSet;
4149                                 }
4150
4151                                 new_op = set_func(dbgi, irg, block, noreg, noreg, cmp_a, cmp_b, nomem);
4152                                 if(!mode_is_signed(mode))
4153                                         pnc |= ia32_pn_Cmp_Unsigned;
4154
4155                                 set_ia32_pncode(new_op, pnc);
4156                                 set_ia32_am_support(new_op, ia32_am_Source);
4157                         }
4158
4159                         /* the the new compare as in */
4160                         set_irn_n(cond, i, new_op);
4161                 } else {
4162                         /* another complex condition */
4163                         transform_psi_cond(in, mode, cg);
4164                 }
4165         }
4166 }
4167
4168 /**
4169  * The Psi selector can be a tree of compares combined with "And"s and "Or"s.
4170  * We create a Set node, respectively a xCmp in case the Psi is a float, for
4171  * each compare, which causes the compare result to be stored in a register. The
4172  * "And"s and "Or"s are transformed later, we just have to set their mode right.
4173  */
4174 void ia32_transform_psi_cond_tree(ir_node *node, void *env) {
4175         ia32_code_gen_t *cg = env;
4176         ir_node         *psi_sel, *new_cmp, *block;
4177         ir_graph        *irg;
4178         ir_mode         *mode;
4179
4180         /* check for Psi */
4181         if (get_irn_opcode(node) != iro_Psi)
4182                 return;
4183
4184         psi_sel = get_Psi_cond(node, 0);
4185
4186         /* if psi_cond is a cmp: do nothing, this case is covered by gen_Psi */
4187         if (is_Proj(psi_sel)) {
4188                 assert(is_Cmp(get_Proj_pred(psi_sel)));
4189                 return;
4190         }
4191
4192         //mode = get_irn_mode(node);
4193         // TODO probably wrong...
4194         mode = mode_Iu;
4195
4196         transform_psi_cond(psi_sel, mode, cg);
4197
4198         irg   = get_irn_irg(node);
4199         block = get_nodes_block(node);
4200
4201         /* we need to compare the evaluated condition tree with 0 */
4202         mode = get_irn_mode(node);
4203         if (mode_is_float(mode)) {
4204                 /* BEWARE: new_r_Const_long works for floating point as well */
4205                 ir_node *zero = new_r_Const_long(irg, block, mode, 0);
4206
4207                 psi_sel = gen_sse_conv_int2float(cg, NULL, irg, block, psi_sel, NULL, mode);
4208                 new_cmp = new_r_Cmp(irg, block, psi_sel, zero);
4209                 new_cmp = new_r_Proj(irg, block, new_cmp, mode_b, pn_Cmp_Ne);
4210         } else {
4211                 ir_node *zero = new_r_Const_long(irg, block, mode_Iu, 0);
4212                 new_cmp = new_r_Cmp(irg, block, psi_sel, zero);
4213                 new_cmp = new_r_Proj(irg, block, new_cmp, mode_b, pn_Cmp_Gt | pn_Cmp_Lt);
4214         }
4215
4216         set_Psi_cond(node, 0, new_cmp);
4217 }
4218
4219 void ia32_init_transform(void)
4220 {
4221         FIRM_DBG_REGISTER(dbg, "firm.be.ia32.transform");
4222 }