Put a space after if/for/switch/while.
[libfirm] / ir / be / becopyheur.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       First simple copy minimization heuristics.
23  * @author      Daniel Grund
24  * @date        12.04.2005
25  * @version     $Id$
26  *
27  * Heuristic for minimizing copies using a queue which holds 'qnodes' not yet
28  * examined. A qnode has a 'target color', nodes out of the opt unit and
29  * a 'conflict graph'. 'Conflict graph' = "Interference graph' + 'conflict edges'
30  * A 'max indep set' is determined from these. We try to color this mis using a
31  * color-exchanging mechanism. Occuring conflicts are modeled with 'conflict edges'
32  * and the qnode is reinserted in the queue. The first qnode colored without
33  * conflicts is the best one.
34  */
35 #include "config.h"
36
37 #include "debug.h"
38 #include "bitset.h"
39 #include "raw_bitset.h"
40 #include "xmalloc.h"
41
42 #include "becopyopt_t.h"
43 #include "becopystat.h"
44 #include "beintlive_t.h"
45 #include "beirg.h"
46 #include "bemodule.h"
47
48 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
49
50 #define SEARCH_FREE_COLORS
51
52 #define SLOTS_PINNED_GLOBAL 64
53 #define SLOTS_CONFLICTS 8
54 #define SLOTS_CHANGED_NODES 32
55
56 #define list_entry_queue(lh) list_entry(lh, qnode_t, queue)
57 #define HASH_CONFLICT(c) (hash_irn(c.n1) ^ hash_irn(c.n2))
58
59 /**
60  * Modeling additional conflicts between nodes. NOT live range interference
61  */
62 typedef struct _conflict_t {
63         const ir_node *n1, *n2;
64 } conflict_t;
65
66 /**
67  * If an irn is changed, the changes first get stored in a node_stat_t,
68  * to allow undo of changes (=drop new data) in case of conflicts.
69  */
70 typedef struct _node_stat_t {
71         ir_node *irn;
72         int     new_color;
73         int     pinned_local :1;
74 } node_stat_t;
75
76 /**
77  * Represents a node in the optimization queue.
78  */
79 typedef struct _qnode_t {
80         struct list_head queue;            /**< chaining of unit_t->queue */
81         const unit_t     *ou;              /**< the opt unit this node belongs to */
82         int              color;            /**< target color */
83         set              *conflicts;       /**< contains conflict_t's. All internal conflicts */
84         int              mis_costs;        /**< costs of nodes/copies in the mis. */
85         int              mis_size;         /**< size of the array below */
86         ir_node          **mis;            /**< the nodes of unit_t->nodes[] being part of the max independent set */
87         set              *changed_nodes;   /**< contains node_stat_t's. */
88 } qnode_t;
89
90 static pset *pinned_global;                     /**< optimized nodes should not be altered any more */
91
92 static inline int nodes_interfere(const be_chordal_env_t *env, const ir_node *a, const ir_node *b)
93 {
94         if (env->ifg)
95                 return be_ifg_connected(env->ifg, a, b);
96         else
97                 return be_values_interfere(env->birg->lv, a, b);
98 }
99
100 static int set_cmp_conflict_t(const void *x, const void *y, size_t size)
101 {
102         const conflict_t *xx = x;
103         const conflict_t *yy = y;
104         (void) size;
105
106         return xx->n1 != yy->n1 || xx->n2 != yy->n2;
107 }
108
109 /**
110  * If a local pinned conflict occurs, a new edge in the conflict graph is added.
111  * The next maximum independent set build, will regard it.
112  */
113 static inline void qnode_add_conflict(const qnode_t *qn, const ir_node *n1, const ir_node *n2)
114 {
115         conflict_t c;
116         DBG((dbg, LEVEL_4, "\t      %+F -- %+F\n", n1, n2));
117
118         if (get_irn_idx(n1) < get_irn_idx(n2)) {
119                 c.n1 = n1;
120                 c.n2 = n2;
121         } else {
122                 c.n1 = n2;
123                 c.n2 = n1;
124         }
125         set_insert(qn->conflicts, &c, sizeof(c), HASH_CONFLICT(c));
126 }
127
128 /**
129  * Checks if two nodes are in a conflict.
130  */
131 static inline int qnode_are_conflicting(const qnode_t *qn, const ir_node *n1, const ir_node *n2)
132 {
133         conflict_t c;
134         /* search for live range interference */
135         if (n1!=n2 && nodes_interfere(qn->ou->co->cenv, n1, n2))
136                 return 1;
137         /* search for recoloring conflicts */
138         if (get_irn_idx(n1) < get_irn_idx(n2)) {
139                 c.n1 = n1;
140                 c.n2 = n2;
141         } else {
142                 c.n1 = n2;
143                 c.n2 = n1;
144         }
145         return set_find(qn->conflicts, &c, sizeof(c), HASH_CONFLICT(c)) != 0;
146 }
147
148 static int set_cmp_node_stat_t(const void *x, const void *y, size_t size)
149 {
150         (void) size;
151         return ((const node_stat_t*)x)->irn != ((const node_stat_t*)y)->irn;
152 }
153
154 /**
155  * Finds a node status entry of a node if existent. Otherwise return NULL
156  */
157 static inline const node_stat_t *qnode_find_node(const qnode_t *qn, ir_node *irn)
158 {
159         node_stat_t find;
160         find.irn = irn;
161         return set_find(qn->changed_nodes, &find, sizeof(find), hash_irn(irn));
162 }
163
164 /**
165  * Finds a node status entry of a node if existent. Otherwise it will return
166  * an initialized new entry for this node.
167  */
168 static inline node_stat_t *qnode_find_or_insert_node(const qnode_t *qn, ir_node *irn)
169 {
170         node_stat_t find;
171         find.irn = irn;
172         find.new_color = NO_COLOR;
173         find.pinned_local = 0;
174         return set_insert(qn->changed_nodes, &find, sizeof(find), hash_irn(irn));
175 }
176
177 /**
178  * Returns the virtual color of a node if set before, else returns the real color.
179  */
180 static inline int qnode_get_new_color(const qnode_t *qn, ir_node *irn)
181 {
182         const node_stat_t *found = qnode_find_node(qn, irn);
183         if (found)
184                 return found->new_color;
185         else
186                 return get_irn_col(irn);
187 }
188
189 /**
190  * Sets the virtual color of a node.
191  */
192 static inline void qnode_set_new_color(const qnode_t *qn, ir_node *irn, int color)
193 {
194         node_stat_t *found = qnode_find_or_insert_node(qn, irn);
195         found->new_color = color;
196         DBG((dbg, LEVEL_3, "\t      col(%+F) := %d\n", irn, color));
197 }
198
199 /**
200  * Checks if a node is local pinned. A node is local pinned, iff it belongs
201  * to the same optimization unit and has been optimized before the current
202  * processed node.
203  */
204 static inline int qnode_is_pinned_local(const qnode_t *qn, ir_node *irn)
205 {
206         const node_stat_t *found = qnode_find_node(qn, irn);
207         if (found)
208                 return found->pinned_local;
209         else
210                 return 0;
211 }
212
213 /**
214  * Local-pins a node, so optimizations of further nodes of the same opt unit
215  * can handle situations in which a color change would undo prior optimizations.
216  */
217 static inline void qnode_pin_local(const qnode_t *qn, ir_node *irn)
218 {
219         node_stat_t *found = qnode_find_or_insert_node(qn, irn);
220         found->pinned_local = 1;
221         if (found->new_color == NO_COLOR)
222                 found->new_color = get_irn_col(irn);
223 }
224
225
226 /**
227  * Possible return values of qnode_color_irn()
228  */
229 #define CHANGE_SAVE NULL
230 #define CHANGE_IMPOSSIBLE (ir_node *)1
231
232 /**
233  * Performs virtual re-coloring of node @p n to color @p col. Virtual colors of
234  * other nodes are changed too, as required to preserve correctness. Function is
235  * aware of local and global pinning. Recursive.
236  *
237  * If irn == trigger the color @p col must be used. (the first recoloring)
238  * If irn != trigger an arbitrary free color may be used. If no color is free, @p col is used.
239  *
240  * @param  irn     The node to set the color for
241  * @param  col     The color to set
242  * @param  trigger The irn that caused the wish to change the color of the irn
243  *                 External callers must call with trigger = irn
244  *
245  * @return CHANGE_SAVE iff setting the color is possible, with all transitive effects.
246  *         CHANGE_IMPOSSIBLE iff conflicts with reg-constraintsis occured.
247  *         Else the first conflicting ir_node encountered is returned.
248  *
249  */
250 static ir_node *qnode_color_irn(const qnode_t *qn, ir_node *irn, int col, const ir_node *trigger)
251 {
252         copy_opt_t *co = qn->ou->co;
253         const be_chordal_env_t *chordal_env = co->cenv;
254         const arch_register_class_t *cls = co->cls;
255         int irn_col = qnode_get_new_color(qn, irn);
256         ir_node *sub_res, *curr;
257         be_ifg_t *ifg = chordal_env->ifg;
258         void *iter = be_ifg_neighbours_iter_alloca(ifg);
259
260
261         DBG((dbg, LEVEL_3, "\t    %+F \tcaused col(%+F) \t%2d --> %2d\n", trigger, irn, irn_col, col));
262
263         /* If the target color is already set do nothing */
264         if (irn_col == col) {
265                 DBG((dbg, LEVEL_3, "\t      %+F same color\n", irn));
266                 return CHANGE_SAVE;
267         }
268
269         /* If the irn is pinned, changing color is impossible */
270         if (pset_find_ptr(pinned_global, irn) || qnode_is_pinned_local(qn, irn)) {
271                 DBG((dbg, LEVEL_3, "\t      %+F conflicting\n", irn));
272                 return irn;
273         }
274
275 #ifdef SEARCH_FREE_COLORS
276         /* If we resolve conflicts (recursive calls) we can use any unused color.
277          * In case of the first call @p col must be used.
278          */
279         if (irn != trigger) {
280                 bitset_t *free_cols = bitset_alloca(cls->n_regs);
281                 const arch_register_req_t *req;
282                 ir_node *curr;
283                 int free_col;
284
285                 /* Get all possible colors */
286                 bitset_copy(free_cols, co->cenv->ignore_colors);
287                 bitset_flip_all(free_cols);
288
289                 /* Exclude colors not assignable to the irn */
290                 req = arch_get_register_req_out(irn);
291                 if (arch_register_req_is(req, limited)) {
292                         bitset_t *limited = bitset_alloca(cls->n_regs);
293                         rbitset_copy_to_bitset(req->limited, limited);
294                         bitset_and(free_cols, limited);
295                 }
296
297                 /* Exclude the color of the irn, because it must _change_ its color */
298                 bitset_clear(free_cols, irn_col);
299
300                 /* Exclude all colors used by adjacent nodes */
301                 be_ifg_foreach_neighbour(ifg, iter, irn, curr)
302                         bitset_clear(free_cols, qnode_get_new_color(qn, curr));
303
304                 free_col = bitset_next_set(free_cols, 0);
305
306                 if (free_col != -1) {
307                         qnode_set_new_color(qn, irn, free_col);
308                         return CHANGE_SAVE;
309                 }
310         }
311 #endif /* SEARCH_FREE_COLORS */
312
313         /* If target color is not allocatable changing color is impossible */
314         if (!arch_reg_out_is_allocatable(irn, arch_register_for_index(cls, col))) {
315                 DBG((dbg, LEVEL_3, "\t      %+F impossible\n", irn));
316                 return CHANGE_IMPOSSIBLE;
317         }
318
319         /*
320          * If we arrive here changing color may be possible, but there may be conflicts.
321          * Try to color all conflicting nodes 'curr' with the color of the irn itself.
322          */
323         be_ifg_foreach_neighbour(ifg, iter, irn, curr) {
324                 DBG((dbg, LEVEL_3, "\t      Confl %+F(%d)\n", curr, qnode_get_new_color(qn, curr)));
325                 if (qnode_get_new_color(qn, curr) == col && curr != trigger) {
326                         sub_res = qnode_color_irn(qn, curr, irn_col, irn);
327                         if (sub_res != CHANGE_SAVE) {
328                                 be_ifg_neighbours_break(ifg, iter);
329                                 return sub_res;
330                         }
331                 }
332         }
333
334         /*
335          * If we arrive here, all conflicts were resolved.
336          * So it is save to change this irn
337          */
338         qnode_set_new_color(qn, irn, col);
339         return CHANGE_SAVE;
340 }
341
342
343 /**
344  * Tries to set the colors for all members of this queue node;
345  * to the target color qn->color
346  * @returns 1 iff all members colors could be set
347  *          0 else
348  */
349 static int qnode_try_color(const qnode_t *qn)
350 {
351         int i;
352         for (i=0; i<qn->mis_size; ++i) {
353                 ir_node *test_node, *confl_node;
354
355                 test_node = qn->mis[i];
356                 DBG((dbg, LEVEL_3, "\t    Testing %+F\n", test_node));
357                 confl_node = qnode_color_irn(qn, test_node, qn->color, test_node);
358
359                 if (confl_node == CHANGE_SAVE) {
360                         DBG((dbg, LEVEL_3, "\t    Save --> pin local\n"));
361                         qnode_pin_local(qn, test_node);
362                 } else if (confl_node == CHANGE_IMPOSSIBLE) {
363                         DBG((dbg, LEVEL_3, "\t    Impossible --> remove from qnode\n"));
364                         qnode_add_conflict(qn, test_node, test_node);
365                         return 0;
366                 } else {
367                         if (qnode_is_pinned_local(qn, confl_node)) {
368                                 /* changing test_node would change back a node of current ou */
369                                 if (confl_node == qn->ou->nodes[0]) {
370                                         /* Adding a conflict edge between testnode and conflnode
371                                          * would introduce a root -- arg interference.
372                                          * So remove the arg of the qn */
373                                         DBG((dbg, LEVEL_3, "\t    Conflicting local with phi --> remove from qnode\n"));
374                                         qnode_add_conflict(qn, test_node, test_node);
375                                 } else {
376                                         DBG((dbg, LEVEL_3, "\t    Conflicting local --> add conflict\n"));
377                                         qnode_add_conflict(qn, confl_node, test_node);
378                                 }
379                         }
380                         if (pset_find_ptr(pinned_global, confl_node)) {
381                                 /* changing test_node would change back a node of a prior ou */
382                                 DBG((dbg, LEVEL_3, "\t    Conflicting global --> remove from qnode\n"));
383                                 qnode_add_conflict(qn, test_node, test_node);
384                         }
385                         return 0;
386                 }
387         }
388         return 1;
389 }
390
391 /**
392  * Determines a maximum weighted independent set with respect to
393  * the interference and conflict edges of all nodes in a qnode.
394  */
395 static inline void qnode_max_ind_set(qnode_t *qn, const unit_t *ou)
396 {
397         ir_node **safe, **unsafe;
398         int i, o, safe_count, safe_costs, unsafe_count, *unsafe_costs;
399         bitset_t *curr, *best;
400         bitset_pos_t pos;
401         int next, curr_weight, best_weight = 0;
402
403         /* assign the nodes into two groups.
404          * safe: node has no interference, hence it is in every max stable set.
405          * unsafe: node has an interference
406          */
407         safe         = ALLOCAN(ir_node*, ou->node_count - 1);
408         safe_costs   = 0;
409         safe_count   = 0;
410         unsafe       = ALLOCAN(ir_node*, ou->node_count - 1);
411         unsafe_costs = ALLOCAN(int,      ou->node_count - 1);
412         unsafe_count = 0;
413         for (i=1; i<ou->node_count; ++i) {
414                 int is_safe = 1;
415                 for (o=1; o<ou->node_count; ++o) {
416                         if (qnode_are_conflicting(qn, ou->nodes[i], ou->nodes[o])) {
417                                 if (i!=o) {
418                                         unsafe_costs[unsafe_count] = ou->costs[i];
419                                         unsafe[unsafe_count] = ou->nodes[i];
420                                         ++unsafe_count;
421                                 }
422                                 is_safe = 0;
423                                 break;
424                         }
425                 }
426                 if (is_safe) {
427                         safe_costs += ou->costs[i];
428                         safe[safe_count++] = ou->nodes[i];
429                 }
430         }
431
432
433
434         /* now compute the best set out of the unsafe nodes*/
435         best = bitset_alloca(unsafe_count);
436
437         if (unsafe_count > MIS_HEUR_TRIGGER) {
438                 /* Heuristic: Greedy trial and error form index 0 to unsafe_count-1 */
439                 for (i=0; i<unsafe_count; ++i) {
440                         bitset_set(best, i);
441                         /* check if it is a stable set */
442                         for (o=bitset_next_set(best, 0); o!=-1 && o<=i; o=bitset_next_set(best, o+1))
443                                 if (qnode_are_conflicting(qn, unsafe[i], unsafe[o])) {
444                                         bitset_clear(best, i); /* clear the bit and try next one */
445                                         break;
446                                 }
447                 }
448                 /* compute the weight */
449                 bitset_foreach(best, pos)
450                         best_weight += unsafe_costs[pos];
451         } else {
452                 /* Exact Algorithm: Brute force */
453                 curr = bitset_alloca(unsafe_count);
454                 bitset_set_all(curr);
455                 while (!bitset_is_empty(curr)) {
456                         /* check if curr is a stable set */
457                         for (i=bitset_next_set(curr, 0); i!=-1; i=bitset_next_set(curr, i+1))
458                                 for (o=bitset_next_set(curr, i); o!=-1; o=bitset_next_set(curr, o+1)) /* !!!!! difference to ou_max_ind_set_costs(): NOT (curr, i+1) */
459                                                 if (qnode_are_conflicting(qn, unsafe[i], unsafe[o]))
460                                                         goto no_stable_set;
461
462                         /* if we arrive here, we have a stable set */
463                         /* compute the weigth of the stable set*/
464                         curr_weight = 0;
465                         bitset_foreach(curr, pos)
466                                 curr_weight += unsafe_costs[pos];
467
468                         /* any better ? */
469                         if (curr_weight > best_weight) {
470                                 best_weight = curr_weight;
471                                 bitset_copy(best, curr);
472                         }
473
474 no_stable_set:
475                         bitset_minus1(curr);
476                 }
477         }
478
479         /* transfer the best set into the qn */
480         qn->mis_size = 1+safe_count+bitset_popcnt(best);
481         qn->mis_costs = safe_costs+best_weight;
482         qn->mis[0] = ou->nodes[0]; /* the root is always in a max stable set */
483         next = 1;
484         for (i=0; i<safe_count; ++i)
485                 qn->mis[next++] = safe[i];
486         bitset_foreach(best, pos)
487                 qn->mis[next++] = unsafe[pos];
488 }
489
490 /**
491  * Creates a new qnode
492  */
493 static inline qnode_t *new_qnode(const unit_t *ou, int color)
494 {
495         qnode_t *qn = XMALLOC(qnode_t);
496         qn->ou            = ou;
497         qn->color         = color;
498         qn->mis           = XMALLOCN(ir_node*, ou->node_count);
499         qn->conflicts     = new_set(set_cmp_conflict_t, SLOTS_CONFLICTS);
500         qn->changed_nodes = new_set(set_cmp_node_stat_t, SLOTS_CHANGED_NODES);
501         return qn;
502 }
503
504 /**
505  * Frees space used by a queue node
506  */
507 static inline void free_qnode(qnode_t *qn)
508 {
509         del_set(qn->conflicts);
510         del_set(qn->changed_nodes);
511         xfree(qn->mis);
512         xfree(qn);
513 }
514
515 /**
516  * Inserts a qnode in the sorted queue of the optimization unit. Queue is
517  * ordered by field 'size' (the size of the mis) in decreasing order.
518  */
519 static inline void ou_insert_qnode(unit_t *ou, qnode_t *qn)
520 {
521         struct list_head *lh;
522
523         if (qnode_are_conflicting(qn, ou->nodes[0], ou->nodes[0])) {
524                 /* root node is not in qnode */
525                 free_qnode(qn);
526                 return;
527         }
528
529         qnode_max_ind_set(qn, ou);
530         /* do the insertion */
531         DBG((dbg, LEVEL_4, "\t  Insert qnode color %d with cost %d\n", qn->color, qn->mis_costs));
532         lh = &ou->queue;
533         while (lh->next != &ou->queue) {
534                 qnode_t *curr = list_entry_queue(lh->next);
535                 if (curr->mis_costs <= qn->mis_costs)
536                         break;
537                 lh = lh->next;
538         }
539         list_add(&qn->queue, lh);
540 }
541
542 /**
543  * Tries to re-allocate colors of nodes in this opt unit, to achieve lower
544  * costs of copy instructions placed during SSA-destruction and lowering.
545  * Works only for opt units with exactly 1 root node, which is the
546  * case for approximately 80% of all phi classes and 100% of register constrained
547  * nodes. (All other phi classes are reduced to this case.)
548  */
549 static void ou_optimize(unit_t *ou)
550 {
551         qnode_t                     *curr = NULL;
552         qnode_t                     *tmp;
553         const arch_register_req_t   *req;
554         bitset_t const*              ignore;
555         bitset_pos_t                 n_regs;
556         bitset_pos_t                 idx;
557         int                          i;
558
559         DBG((dbg, LEVEL_1, "\tOptimizing unit:\n"));
560         for (i=0; i<ou->node_count; ++i)
561                 DBG((dbg, LEVEL_1, "\t %+F\n", ou->nodes[i]));
562
563         /* init queue */
564         INIT_LIST_HEAD(&ou->queue);
565
566         req     = arch_get_register_req_out(ou->nodes[0]);
567         ignore  = ou->co->cenv->ignore_colors;
568         n_regs  = req->cls->n_regs;
569         if (arch_register_req_is(req, limited)) {
570                 rawbs_base_t const* limited = req->limited;
571
572                 for (idx = 0; idx != n_regs; ++idx) {
573                         if (bitset_is_set(ignore, idx))
574                                 continue;
575                         if (!rbitset_is_set(limited, idx))
576                                 continue;
577
578                         ou_insert_qnode(ou, new_qnode(ou, idx));
579                 }
580         } else {
581                 for (idx = 0; idx != n_regs; ++idx) {
582                         if (bitset_is_set(ignore, idx))
583                                 continue;
584
585                         ou_insert_qnode(ou, new_qnode(ou, idx));
586                 }
587         }
588
589         /* search best */
590         for (;;) {
591                 assert(!list_empty(&ou->queue));
592                 /* get head of queue */
593                 curr = list_entry_queue(ou->queue.next);
594                 list_del(&curr->queue);
595                 DBG((dbg, LEVEL_2, "\t  Examine qnode color %d with cost %d\n", curr->color, curr->mis_costs));
596
597                 /* try */
598                 if (qnode_try_color(curr))
599                         break;
600
601                 /* no success, so re-insert */
602                 del_set(curr->changed_nodes);
603                 curr->changed_nodes = new_set(set_cmp_node_stat_t, SLOTS_CHANGED_NODES);
604                 ou_insert_qnode(ou, curr);
605         }
606
607         /* apply the best found qnode */
608         if (curr->mis_size >= 2) {
609                 node_stat_t *ns;
610                 int root_col = qnode_get_new_color(curr, ou->nodes[0]);
611                 DBG((dbg, LEVEL_1, "\t  Best color: %d  Costs: %d << %d << %d\n", curr->color, ou->min_nodes_costs, ou->all_nodes_costs - curr->mis_costs, ou->all_nodes_costs));
612                 /* globally pin root and all args which have the same color */
613                 pset_insert_ptr(pinned_global, ou->nodes[0]);
614                 for (i=1; i<ou->node_count; ++i) {
615                         ir_node *irn = ou->nodes[i];
616                         int nc = qnode_get_new_color(curr, irn);
617                         if (nc != NO_COLOR && nc == root_col)
618                                 pset_insert_ptr(pinned_global, irn);
619                 }
620
621                 /* set color of all changed nodes */
622                 for (ns = set_first(curr->changed_nodes); ns; ns = set_next(curr->changed_nodes)) {
623                         /* NO_COLOR is possible, if we had an undo */
624                         if (ns->new_color != NO_COLOR) {
625                                 DBG((dbg, LEVEL_1, "\t    color(%+F) := %d\n", ns->irn, ns->new_color));
626                                 set_irn_col(ou->co, ns->irn, ns->new_color);
627                         }
628                 }
629         }
630
631         /* free best qnode (curr) and queue */
632         free_qnode(curr);
633         list_for_each_entry_safe(qnode_t, curr, tmp, &ou->queue, queue)
634                 free_qnode(curr);
635 }
636
637 /**
638  * Solves the problem using a heuristic approach
639  * Uses the OU data structure
640  */
641 int co_solve_heuristic(copy_opt_t *co)
642 {
643         unit_t *curr;
644
645         ASSERT_OU_AVAIL(co);
646
647         pinned_global = pset_new_ptr(SLOTS_PINNED_GLOBAL);
648         list_for_each_entry(unit_t, curr, &co->units, units)
649                 if (curr->node_count > 1)
650                         ou_optimize(curr);
651
652         del_pset(pinned_global);
653         return 0;
654 }
655
656 void be_init_copyheur(void)
657 {
658         static co_algo_info copyheur = {
659                 co_solve_heuristic, 0
660         };
661
662         be_register_copyopt("heur1", &copyheur);
663         FIRM_DBG_REGISTER(dbg, "ir.be.copyoptheur");
664 }
665
666 BE_REGISTER_MODULE_CONSTRUCTOR(be_init_copyheur);