reenable femms
[libfirm] / ir / be / ia32 / ia32_finish.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   This file implements functions to finalize the irg for emit.
23  * @author  Christian Wuerdig
24  */
25 #include "config.h"
26
27 #include "irnode.h"
28 #include "ircons.h"
29 #include "irgmod.h"
30 #include "irgwalk.h"
31 #include "iredges.h"
32 #include "irprintf.h"
33 #include "pdeq.h"
34 #include "error.h"
35 #include "firmstat_t.h"
36
37 #include "bearch.h"
38 #include "besched.h"
39 #include "benode.h"
40
41 #include "bearch_ia32_t.h"
42 #include "ia32_finish.h"
43 #include "ia32_new_nodes.h"
44 #include "ia32_common_transform.h"
45 #include "ia32_transform.h"
46 #include "ia32_dbg_stat.h"
47 #include "ia32_optimize.h"
48 #include "gen_ia32_regalloc_if.h"
49
50 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
51
52 /**
53  * Transforms a Sub or xSub into Neg--Add iff OUT_REG != SRC1_REG && OUT_REG == SRC2_REG.
54  * THIS FUNCTIONS MUST BE CALLED AFTER REGISTER ALLOCATION.
55  */
56 static void ia32_transform_sub_to_neg_add(ir_node *irn)
57 {
58         ir_graph *irg;
59         ir_node *in1, *in2, *noreg, *nomem, *res;
60         ir_node *noreg_fp, *block;
61         dbg_info *dbgi;
62         const arch_register_t *in1_reg, *in2_reg, *out_reg;
63
64         /* fix_am will solve this for AddressMode variants */
65         if (get_ia32_op_type(irn) != ia32_Normal)
66                 return;
67
68         irg      = get_irn_irg(irn);
69         noreg    = ia32_new_NoReg_gp(irg);
70         noreg_fp = ia32_new_NoReg_xmm(irg);
71         nomem    = get_irg_no_mem(irg);
72         in1      = get_irn_n(irn, n_ia32_binary_left);
73         in2      = get_irn_n(irn, n_ia32_binary_right);
74         in1_reg  = arch_get_irn_register(in1);
75         in2_reg  = arch_get_irn_register(in2);
76         out_reg  = arch_get_irn_register_out(irn, 0);
77
78         if (out_reg == in1_reg)
79                 return;
80
81         /* in case of sub and OUT == SRC2 we can transform the sequence into neg src2 -- add */
82         if (out_reg != in2_reg)
83                 return;
84
85         block = get_nodes_block(irn);
86         dbgi   = get_irn_dbg_info(irn);
87
88         /* generate the neg src2 */
89         if (is_ia32_xSub(irn)) {
90                 int size;
91                 ir_entity *entity;
92                 ir_mode *op_mode = get_ia32_ls_mode(irn);
93
94                 assert(get_irn_mode(irn) != mode_T);
95
96                 res = new_bd_ia32_xXor(dbgi, block, noreg, noreg, nomem, in2, noreg_fp);
97                 size = get_mode_size_bits(op_mode);
98                 entity = ia32_gen_fp_known_const(size == 32 ? ia32_SSIGN : ia32_DSIGN);
99                 set_ia32_am_sc(res, entity);
100                 set_ia32_op_type(res, ia32_AddrModeS);
101                 set_ia32_ls_mode(res, op_mode);
102
103                 arch_set_irn_register(res, in2_reg);
104
105                 /* add to schedule */
106                 sched_add_before(irn, res);
107
108                 /* generate the add */
109                 res = new_bd_ia32_xAdd(dbgi, block, noreg, noreg, nomem, res, in1);
110                 set_ia32_ls_mode(res, get_ia32_ls_mode(irn));
111         } else {
112                 ir_node *flags_proj = NULL;
113                 ir_node *carry;
114
115                 if (get_irn_mode(irn) == mode_T) {
116                         /* collect the Proj uses */
117                         foreach_out_edge(irn, edge) {
118                                 ir_node *proj = get_edge_src_irn(edge);
119                                 long     pn   = get_Proj_proj(proj);
120                                 if (pn == pn_ia32_flags) {
121                                         assert(flags_proj == NULL);
122                                         flags_proj = proj;
123                                         break;
124                                 }
125                         }
126                 }
127
128                 if (is_ia32_Sbb(irn)) {
129                         /* Feed borrow (in CF) as carry (via CMC) into NOT+ADC. */
130                         carry = get_irn_n(irn, n_ia32_Sbb_eflags);
131                         carry = new_bd_ia32_Cmc(dbgi, block, carry);
132                         goto carry;
133                 } else if (flags_proj != 0) {
134                         /*
135                          * ARG, the above technique does NOT set the flags right.
136                          * So, we must produce the following code:
137                          * t1 = ~b
138                          * t2 = a + ~b + Carry
139                          * Complement Carry
140                          *
141                          * a + -b = a + (~b + 1)  would set the carry flag wrong IFF both a and b are zero.
142                          */
143                         ir_node *cmc;
144                         ir_node *nnot;
145                         ir_node *adc;
146                         ir_node *adc_flags;
147
148                         carry = new_bd_ia32_Stc(dbgi, block);
149
150 carry:
151                         nnot = new_bd_ia32_Not(dbgi, block, in2);
152                         arch_set_irn_register(nnot, in2_reg);
153                         sched_add_before(irn, nnot);
154
155                         arch_set_irn_register(carry, &ia32_registers[REG_EFLAGS]);
156                         sched_add_before(irn, carry);
157
158                         adc = new_bd_ia32_Adc(dbgi, block, noreg, noreg, nomem, nnot, in1, carry);
159                         arch_set_irn_register(adc, out_reg);
160                         set_ia32_commutative(adc);
161
162                         if (flags_proj != NULL) {
163                                 set_irn_mode(adc, mode_T);
164                                 adc_flags = new_r_Proj(adc, mode_Iu, pn_ia32_Adc_flags);
165                                 arch_set_irn_register(adc_flags, &ia32_registers[REG_EFLAGS]);
166
167                                 cmc = new_bd_ia32_Cmc(dbgi, block, adc_flags);
168                                 arch_set_irn_register(cmc, &ia32_registers[REG_EFLAGS]);
169                                 sched_add_after(irn, cmc);
170                                 exchange(flags_proj, cmc);
171                         }
172
173                         res = adc;
174                 } else {
175                         res = new_bd_ia32_Neg(dbgi, block, in2);
176                         arch_set_irn_register(res, in2_reg);
177
178                         /* add to schedule */
179                         sched_add_before(irn, res);
180
181                         /* generate the add */
182                         res = new_bd_ia32_Add(dbgi, block, noreg, noreg, nomem, res, in1);
183                         arch_set_irn_register(res, out_reg);
184                         set_ia32_commutative(res);
185                 }
186         }
187
188         /* exchange the add and the sub */
189         edges_reroute(irn, res);
190         sched_replace(irn, res);
191
192         set_irn_mode(res, get_irn_mode(irn));
193
194         SET_IA32_ORIG_NODE(res, irn);
195
196         /* remove the old sub */
197         kill_node(irn);
198
199         DBG_OPT_SUB2NEGADD(irn, res);
200 }
201
202 static inline int need_constraint_copy(ir_node *irn)
203 {
204         /* TODO this should be determined from the node specification */
205         switch (get_ia32_irn_opcode(irn)) {
206                 case iro_ia32_IMul: {
207                         /* the 3 operand form of IMul needs no constraint copy */
208                         ir_node *right = get_irn_n(irn, n_ia32_IMul_right);
209                         return !is_ia32_Immediate(right);
210                 }
211
212                 case iro_ia32_Lea:
213                 case iro_ia32_Conv_I2I:
214                 case iro_ia32_CMovcc:
215                 case iro_ia32_Minus64Bit:
216                         return 0;
217
218                 default:
219                         return 1;
220         }
221 }
222
223 /**
224  * Returns the index of the "same" register.
225  * On the x86, we should have only one.
226  */
227 static int get_first_same(const arch_register_req_t* req)
228 {
229         const unsigned other = req->other_same;
230         int i;
231
232         for (i = 0; i < 32; ++i) {
233                 if (other & (1U << i)) return i;
234         }
235         panic("same position not found");
236 }
237
238 /**
239  * Insert copies for all ia32 nodes where the should_be_same requirement
240  * is not fulfilled.
241  * Transform Sub into Neg -- Add if IN2 == OUT
242  */
243 static void assure_should_be_same_requirements(ir_node *node)
244 {
245         const arch_register_t      *out_reg, *in_reg;
246         ir_node                    *in_node, *block;
247
248         block = get_nodes_block(node);
249
250         /* check all OUT requirements, if there is a should_be_same */
251         be_foreach_out(node, i) {
252                 int                          i2, arity;
253                 int                          same_pos;
254                 ir_node                     *uses_out_reg;
255                 const arch_register_req_t   *req = arch_get_irn_register_req_out(node, i);
256                 int                         uses_out_reg_pos;
257
258                 if (!arch_register_req_is(req, should_be_same))
259                         continue;
260
261                 same_pos = get_first_same(req);
262
263                 /* get in and out register */
264                 out_reg = arch_get_irn_register_out(node, i);
265                 in_node = get_irn_n(node, same_pos);
266                 in_reg  = arch_get_irn_register(in_node);
267
268                 /* requirement already fulfilled? */
269                 if (in_reg == out_reg)
270                         continue;
271                 assert(in_reg->reg_class == out_reg->reg_class);
272
273                 /* check if any other input operands uses the out register */
274                 arity = get_irn_arity(node);
275                 uses_out_reg     = NULL;
276                 uses_out_reg_pos = -1;
277                 for (i2 = 0; i2 < arity; ++i2) {
278                         ir_node               *in     = get_irn_n(node, i2);
279                         const arch_register_t *other_in_reg;
280
281                         if (!mode_is_data(get_irn_mode(in)))
282                                 continue;
283
284                         other_in_reg = arch_get_irn_register(in);
285
286                         if (other_in_reg != out_reg)
287                                 continue;
288
289                         if (uses_out_reg != NULL && in != uses_out_reg) {
290                                 panic("invalid register allocation");
291                         }
292                         uses_out_reg = in;
293                         if (uses_out_reg_pos >= 0)
294                                 uses_out_reg_pos = -1; /* multiple inputs... */
295                         else
296                                 uses_out_reg_pos = i2;
297                 }
298
299                 /* no-one else is using the out reg, we can simply copy it
300                  * (the register can't be live since the operation will override it
301                  *  anyway) */
302                 if (uses_out_reg == NULL) {
303                         ir_node *copy = be_new_Copy(block, in_node);
304                         DBG_OPT_2ADDRCPY(copy);
305
306                         /* destination is the out register */
307                         arch_set_irn_register(copy, out_reg);
308
309                         /* insert copy before the node into the schedule */
310                         sched_add_before(node, copy);
311
312                         /* set copy as in */
313                         set_irn_n(node, same_pos, copy);
314
315                         DBG((dbg, LEVEL_1,
316                                 "created copy %+F for should be same argument at input %d of %+F\n",
317                                 copy, same_pos, node));
318                         continue;
319                 }
320
321                 /* for commutative nodes we can simply swap the left/right */
322                 if (uses_out_reg_pos == n_ia32_binary_right && is_ia32_commutative(node)) {
323                         ia32_swap_left_right(node);
324                         DBG((dbg, LEVEL_1,
325                                 "swapped left/right input of %+F to resolve should be same constraint\n",
326                                 node));
327                         continue;
328                 }
329
330                 panic("Unresolved should_be_same constraint");
331         }
332 }
333
334 /**
335  * Following Problem:
336  * We have a source address mode node with base or index register equal to
337  * result register and unfulfilled should_be_same requirement. The constraint
338  * handler will insert a copy from the remaining input operand to the result
339  * register -> base or index is broken then.
340  * Solution: Turn back this address mode into explicit Load + Operation.
341  */
342 static void fix_am_source(ir_node *irn)
343 {
344         /* check only ia32 nodes with source address mode */
345         if (!is_ia32_irn(irn) || get_ia32_op_type(irn) != ia32_AddrModeS)
346                 return;
347         /* only need to fix binary operations */
348         if (get_ia32_am_support(irn) != ia32_am_binary)
349                 return;
350
351         be_foreach_out(irn, i) {
352                 const arch_register_req_t *req = arch_get_irn_register_req_out(irn, i);
353                 const arch_register_t     *out_reg;
354                 int                        same_pos;
355                 ir_node                   *same_node;
356                 const arch_register_t     *same_reg;
357                 ir_node                   *load_res;
358
359                 if (!arch_register_req_is(req, should_be_same))
360                         continue;
361
362                 /* get in and out register */
363                 out_reg   = arch_get_irn_register_out(irn, i);
364                 same_pos  = get_first_same(req);
365                 same_node = get_irn_n(irn, same_pos);
366                 same_reg  = arch_get_irn_register(same_node);
367
368                 /* should_be same constraint is fullfilled, nothing to do */
369                 if (out_reg == same_reg)
370                         continue;
371
372                 /* we only need to do something if the out reg is the same as base
373                          or index register */
374                 if (out_reg != arch_get_irn_register(get_irn_n(irn, n_ia32_base)) &&
375                                 out_reg != arch_get_irn_register(get_irn_n(irn, n_ia32_index)))
376                         continue;
377
378                 load_res = ia32_turn_back_am(irn);
379                 arch_set_irn_register(load_res, out_reg);
380
381                 DBG((dbg, LEVEL_3,
382                         "irg %+F: build back AM source for node %+F, inserted load %+F\n",
383                         get_irn_irg(irn), irn, get_Proj_pred(load_res)));
384                 break;
385         }
386 }
387
388 /**
389  * Block walker: finishes a block
390  */
391 static void ia32_finish_irg_walker(ir_node *block, void *env)
392 {
393         ir_node *irn, *next;
394         (void) env;
395
396         /* first: turn back AM source if necessary */
397         for (irn = sched_first(block); ! sched_is_end(irn); irn = next) {
398                 next = sched_next(irn);
399                 fix_am_source(irn);
400         }
401
402         for (irn = sched_first(block); ! sched_is_end(irn); irn = next) {
403                 next = sched_next(irn);
404
405                 /* check if there is a sub which need to be transformed */
406                 if (is_ia32_Sub(irn) || is_ia32_Sbb(irn) || is_ia32_xSub(irn)) {
407                         ia32_transform_sub_to_neg_add(irn);
408                 }
409         }
410
411         /* second: insert copies and finish irg */
412         for (irn = sched_first(block); ! sched_is_end(irn); irn = next) {
413                 next = sched_next(irn);
414                 if (is_ia32_irn(irn)) {
415                         /* some nodes are just a bit less efficient, but need no fixing if the
416                          * should be same requirement is not fulfilled */
417                         if (need_constraint_copy(irn))
418                                 assure_should_be_same_requirements(irn);
419                 }
420         }
421 }
422
423 /**
424  * Block walker: pushes all blocks on a wait queue
425  */
426 static void ia32_push_on_queue_walker(ir_node *block, void *env)
427 {
428         waitq *wq = (waitq*)env;
429         waitq_put(wq, block);
430 }
431
432
433 /**
434  * Add Copy nodes for not fulfilled should_be_equal constraints
435  */
436 void ia32_finish_irg(ir_graph *irg)
437 {
438         waitq *wq = new_waitq();
439
440         /* Push the blocks on the waitq because ia32_finish_irg_walker starts more walks ... */
441         irg_block_walk_graph(irg, NULL, ia32_push_on_queue_walker, wq);
442
443         while (! waitq_empty(wq)) {
444                 ir_node *block = (ir_node*)waitq_get(wq);
445                 ia32_finish_irg_walker(block, NULL);
446         }
447         del_waitq(wq);
448 }
449
450 void ia32_init_finish(void)
451 {
452         FIRM_DBG_REGISTER(dbg, "firm.be.ia32.finish");
453 }