becopyheur: Avoid unnecessary bitset copying.
[libfirm] / ir / be / becopyheur.c
1 /*
2  * This file is part of libFirm.
3  * Copyright (C) 2012 University of Karlsruhe.
4  */
5
6 /**
7  * @file
8  * @brief       First simple copy minimization heuristics.
9  * @author      Daniel Grund
10  * @date        12.04.2005
11  *
12  * Heuristic for minimizing copies using a queue which holds 'qnodes' not yet
13  * examined. A qnode has a 'target color', nodes out of the opt unit and
14  * a 'conflict graph'. 'Conflict graph' = "Interference graph' + 'conflict edges'
15  * A 'max indep set' is determined from these. We try to color this mis using a
16  * color-exchanging mechanism. Occuring conflicts are modeled with 'conflict edges'
17  * and the qnode is reinserted in the queue. The first qnode colored without
18  * conflicts is the best one.
19  */
20 #include "config.h"
21
22 #include "debug.h"
23 #include "bitset.h"
24 #include "raw_bitset.h"
25 #include "xmalloc.h"
26
27 #include "becopyopt_t.h"
28 #include "becopystat.h"
29 #include "beintlive_t.h"
30 #include "beirg.h"
31 #include "bemodule.h"
32
33 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
34
35 /** Defines an invalid register index. */
36 #define NO_COLOR (-1)
37
38 #define SEARCH_FREE_COLORS
39
40 #define SLOTS_PINNED_GLOBAL 64
41 #define SLOTS_CONFLICTS 8
42 #define SLOTS_CHANGED_NODES 32
43
44 #define list_entry_queue(lh) list_entry(lh, qnode_t, queue)
45 #define HASH_CONFLICT(c) (hash_irn(c.n1) ^ hash_irn(c.n2))
46
47 /**
48  * Modeling additional conflicts between nodes. NOT live range interference
49  */
50 typedef struct conflict_t {
51         const ir_node *n1, *n2;
52 } conflict_t;
53
54 /**
55  * If an irn is changed, the changes first get stored in a node_stat_t,
56  * to allow undo of changes (=drop new data) in case of conflicts.
57  */
58 typedef struct node_stat_t {
59         ir_node *irn;
60         int      new_color;
61         unsigned pinned_local :1;
62 } node_stat_t;
63
64 /**
65  * Represents a node in the optimization queue.
66  */
67 typedef struct qnode_t {
68         struct list_head queue;            /**< chaining of unit_t->queue */
69         int              color;            /**< target color */
70         set              *conflicts;       /**< contains conflict_t's. All internal conflicts */
71         int              mis_costs;        /**< costs of nodes/copies in the mis. */
72         int              mis_size;         /**< size of the array below */
73         ir_node          **mis;            /**< the nodes of unit_t->nodes[] being part of the max independent set */
74         set              *changed_nodes;   /**< contains node_stat_t's. */
75 } qnode_t;
76
77 static pset *pinned_global;  /**< optimized nodes should not be altered any more */
78
79 static int set_cmp_conflict_t(const void *x, const void *y, size_t size)
80 {
81         const conflict_t *xx = (const conflict_t*)x;
82         const conflict_t *yy = (const conflict_t*)y;
83         (void) size;
84
85         return xx->n1 != yy->n1 || xx->n2 != yy->n2;
86 }
87
88 /**
89  * If a local pinned conflict occurs, a new edge in the conflict graph is added.
90  * The next maximum independent set build, will regard it.
91  */
92 static inline void qnode_add_conflict(const qnode_t *qn, const ir_node *n1, const ir_node *n2)
93 {
94         conflict_t c;
95         DBG((dbg, LEVEL_4, "\t      %+F -- %+F\n", n1, n2));
96
97         if (get_irn_idx(n1) < get_irn_idx(n2)) {
98                 c.n1 = n1;
99                 c.n2 = n2;
100         } else {
101                 c.n1 = n2;
102                 c.n2 = n1;
103         }
104         (void)set_insert(conflict_t, qn->conflicts, &c, sizeof(c), HASH_CONFLICT(c));
105 }
106
107 /**
108  * Checks if two nodes are in a conflict.
109  */
110 static inline int qnode_are_conflicting(const qnode_t *qn, const ir_node *n1, const ir_node *n2)
111 {
112         conflict_t c;
113         /* search for live range interference */
114         if (n1 != n2) {
115                 be_lv_t *const lv = be_get_irg_liveness(get_irn_irg(n1));
116                 if (be_values_interfere(lv, n1, n2))
117                         return 1;
118         }
119         /* search for recoloring conflicts */
120         if (get_irn_idx(n1) < get_irn_idx(n2)) {
121                 c.n1 = n1;
122                 c.n2 = n2;
123         } else {
124                 c.n1 = n2;
125                 c.n2 = n1;
126         }
127         return set_find(conflict_t, qn->conflicts, &c, sizeof(c), HASH_CONFLICT(c)) != 0;
128 }
129
130 static int set_cmp_node_stat_t(const void *x, const void *y, size_t size)
131 {
132         (void) size;
133         return ((const node_stat_t*)x)->irn != ((const node_stat_t*)y)->irn;
134 }
135
136 /**
137  * Finds a node status entry of a node if existent. Otherwise return NULL
138  */
139 static inline const node_stat_t *qnode_find_node(const qnode_t *qn, ir_node *irn)
140 {
141         node_stat_t find;
142         find.irn = irn;
143         return set_find(node_stat_t, qn->changed_nodes, &find, sizeof(find), hash_irn(irn));
144 }
145
146 /**
147  * Finds a node status entry of a node if existent. Otherwise it will return
148  * an initialized new entry for this node.
149  */
150 static inline node_stat_t *qnode_find_or_insert_node(const qnode_t *qn, ir_node *irn)
151 {
152         node_stat_t find;
153         find.irn = irn;
154         find.new_color = NO_COLOR;
155         find.pinned_local = 0;
156         return set_insert(node_stat_t, qn->changed_nodes, &find, sizeof(find), hash_irn(irn));
157 }
158
159 /**
160  * Returns the virtual color of a node if set before, else returns the real color.
161  */
162 static inline int qnode_get_new_color(const qnode_t *qn, ir_node *irn)
163 {
164         const node_stat_t *found = qnode_find_node(qn, irn);
165         if (found)
166                 return found->new_color;
167         else
168                 return get_irn_col(irn);
169 }
170
171 /**
172  * Sets the virtual color of a node.
173  */
174 static inline void qnode_set_new_color(const qnode_t *qn, ir_node *irn, int color)
175 {
176         node_stat_t *found = qnode_find_or_insert_node(qn, irn);
177         found->new_color = color;
178         DBG((dbg, LEVEL_3, "\t      col(%+F) := %d\n", irn, color));
179 }
180
181 /**
182  * Checks if a node is local pinned. A node is local pinned, iff it belongs
183  * to the same optimization unit and has been optimized before the current
184  * processed node.
185  */
186 static inline int qnode_is_pinned_local(const qnode_t *qn, ir_node *irn)
187 {
188         const node_stat_t *found = qnode_find_node(qn, irn);
189         if (found)
190                 return found->pinned_local;
191         else
192                 return 0;
193 }
194
195 /**
196  * Local-pins a node, so optimizations of further nodes of the same opt unit
197  * can handle situations in which a color change would undo prior optimizations.
198  */
199 static inline void qnode_pin_local(const qnode_t *qn, ir_node *irn)
200 {
201         node_stat_t *found = qnode_find_or_insert_node(qn, irn);
202         found->pinned_local = 1;
203         if (found->new_color == NO_COLOR)
204                 found->new_color = get_irn_col(irn);
205 }
206
207
208 /**
209  * Possible return values of qnode_color_irn()
210  */
211 #define CHANGE_SAVE NULL
212 #define CHANGE_IMPOSSIBLE (ir_node *)1
213
214 /**
215  * Performs virtual re-coloring of node @p n to color @p col. Virtual colors of
216  * other nodes are changed too, as required to preserve correctness. Function is
217  * aware of local and global pinning. Recursive.
218  *
219  * If irn == trigger the color @p col must be used. (the first recoloring)
220  * If irn != trigger an arbitrary free color may be used. If no color is free, @p col is used.
221  *
222  * @param  irn     The node to set the color for
223  * @param  col     The color to set
224  * @param  trigger The irn that caused the wish to change the color of the irn
225  *                 External callers must call with trigger = irn
226  *
227  * @return CHANGE_SAVE iff setting the color is possible, with all transitive effects.
228  *         CHANGE_IMPOSSIBLE iff conflicts with reg-constraintsis occured.
229  *         Else the first conflicting ir_node encountered is returned.
230  *
231  */
232 static ir_node *qnode_color_irn(qnode_t const *const qn, ir_node *const irn, int const col, ir_node const *const trigger, bitset_t const *const allocatable_regs, be_ifg_t *const ifg)
233 {
234         int irn_col = qnode_get_new_color(qn, irn);
235         neighbours_iter_t iter;
236
237         DBG((dbg, LEVEL_3, "\t    %+F \tcaused col(%+F) \t%2d --> %2d\n", trigger, irn, irn_col, col));
238
239         /* If the target color is already set do nothing */
240         if (irn_col == col) {
241                 DBG((dbg, LEVEL_3, "\t      %+F same color\n", irn));
242                 return CHANGE_SAVE;
243         }
244
245         /* If the irn is pinned, changing color is impossible */
246         if (pset_find_ptr(pinned_global, irn) || qnode_is_pinned_local(qn, irn)) {
247                 DBG((dbg, LEVEL_3, "\t      %+F conflicting\n", irn));
248                 return irn;
249         }
250
251         arch_register_req_t   const *const req = arch_get_irn_register_req(irn);
252         arch_register_class_t const *const cls = req->cls;
253 #ifdef SEARCH_FREE_COLORS
254         /* If we resolve conflicts (recursive calls) we can use any unused color.
255          * In case of the first call @p col must be used.
256          */
257         if (irn != trigger) {
258                 bitset_t *free_cols = bitset_alloca(cls->n_regs);
259                 int free_col;
260
261                 /* Get all possible colors */
262                 bitset_copy(free_cols, allocatable_regs);
263
264                 /* Exclude colors not assignable to the irn */
265                 if (arch_register_req_is(req, limited))
266                         rbitset_and(free_cols->data, req->limited, free_cols->size);
267
268                 /* Exclude the color of the irn, because it must _change_ its color */
269                 bitset_clear(free_cols, irn_col);
270
271                 /* Exclude all colors used by adjacent nodes */
272                 be_ifg_foreach_neighbour(ifg, &iter, irn, curr)
273                         bitset_clear(free_cols, qnode_get_new_color(qn, curr));
274
275                 free_col = bitset_next_set(free_cols, 0);
276
277                 if (free_col != -1) {
278                         qnode_set_new_color(qn, irn, free_col);
279                         return CHANGE_SAVE;
280                 }
281         }
282 #endif /* SEARCH_FREE_COLORS */
283
284         /* If target color is not allocatable changing color is impossible */
285         if (!arch_reg_is_allocatable(req, arch_register_for_index(cls, col))) {
286                 DBG((dbg, LEVEL_3, "\t      %+F impossible\n", irn));
287                 return CHANGE_IMPOSSIBLE;
288         }
289
290         /*
291          * If we arrive here changing color may be possible, but there may be conflicts.
292          * Try to color all conflicting nodes 'curr' with the color of the irn itself.
293          */
294         be_ifg_foreach_neighbour(ifg, &iter, irn, curr) {
295                 DBG((dbg, LEVEL_3, "\t      Confl %+F(%d)\n", curr, qnode_get_new_color(qn, curr)));
296                 if (qnode_get_new_color(qn, curr) == col && curr != trigger) {
297                         ir_node *const sub_res = qnode_color_irn(qn, curr, irn_col, irn, allocatable_regs, ifg);
298                         if (sub_res != CHANGE_SAVE) {
299                                 be_ifg_neighbours_break(&iter);
300                                 return sub_res;
301                         }
302                 }
303         }
304
305         /*
306          * If we arrive here, all conflicts were resolved.
307          * So it is save to change this irn
308          */
309         qnode_set_new_color(qn, irn, col);
310         return CHANGE_SAVE;
311 }
312
313
314 /**
315  * Tries to set the colors for all members of this queue node;
316  * to the target color qn->color
317  * @returns 1 iff all members colors could be set
318  *          0 else
319  */
320 static int qnode_try_color(qnode_t const *const qn, bitset_t const *const allocatable_regs, be_ifg_t *const ifg)
321 {
322         int i;
323         for (i=0; i<qn->mis_size; ++i) {
324                 ir_node *test_node, *confl_node;
325
326                 test_node = qn->mis[i];
327                 DBG((dbg, LEVEL_3, "\t    Testing %+F\n", test_node));
328                 confl_node = qnode_color_irn(qn, test_node, qn->color, test_node, allocatable_regs, ifg);
329
330                 if (confl_node == CHANGE_SAVE) {
331                         DBG((dbg, LEVEL_3, "\t    Save --> pin local\n"));
332                         qnode_pin_local(qn, test_node);
333                 } else if (confl_node == CHANGE_IMPOSSIBLE) {
334                         DBG((dbg, LEVEL_3, "\t    Impossible --> remove from qnode\n"));
335                         qnode_add_conflict(qn, test_node, test_node);
336                         return 0;
337                 } else {
338                         if (qnode_is_pinned_local(qn, confl_node)) {
339                                 /* changing test_node would change back a node of current ou */
340                                 if (confl_node == qn->mis[0]) {
341                                         /* Adding a conflict edge between testnode and conflnode
342                                          * would introduce a root -- arg interference.
343                                          * So remove the arg of the qn */
344                                         DBG((dbg, LEVEL_3, "\t    Conflicting local with phi --> remove from qnode\n"));
345                                         qnode_add_conflict(qn, test_node, test_node);
346                                 } else {
347                                         DBG((dbg, LEVEL_3, "\t    Conflicting local --> add conflict\n"));
348                                         qnode_add_conflict(qn, confl_node, test_node);
349                                 }
350                         }
351                         if (pset_find_ptr(pinned_global, confl_node)) {
352                                 /* changing test_node would change back a node of a prior ou */
353                                 DBG((dbg, LEVEL_3, "\t    Conflicting global --> remove from qnode\n"));
354                                 qnode_add_conflict(qn, test_node, test_node);
355                         }
356                         return 0;
357                 }
358         }
359         return 1;
360 }
361
362 /**
363  * Determines a maximum weighted independent set with respect to
364  * the interference and conflict edges of all nodes in a qnode.
365  */
366 static inline void qnode_max_ind_set(qnode_t *qn, const unit_t *ou)
367 {
368         ir_node **safe, **unsafe;
369         int i, o, safe_count, safe_costs, unsafe_count, *unsafe_costs;
370         bitset_t *curr, *best;
371         int next, curr_weight, best_weight = 0;
372
373         /* assign the nodes into two groups.
374          * safe: node has no interference, hence it is in every max stable set.
375          * unsafe: node has an interference
376          */
377         safe         = ALLOCAN(ir_node*, ou->node_count - 1);
378         safe_costs   = 0;
379         safe_count   = 0;
380         unsafe       = ALLOCAN(ir_node*, ou->node_count - 1);
381         unsafe_costs = ALLOCAN(int,      ou->node_count - 1);
382         unsafe_count = 0;
383         for (i=1; i<ou->node_count; ++i) {
384                 int is_safe = 1;
385                 for (o=1; o<ou->node_count; ++o) {
386                         if (qnode_are_conflicting(qn, ou->nodes[i], ou->nodes[o])) {
387                                 if (i!=o) {
388                                         unsafe_costs[unsafe_count] = ou->costs[i];
389                                         unsafe[unsafe_count] = ou->nodes[i];
390                                         ++unsafe_count;
391                                 }
392                                 is_safe = 0;
393                                 break;
394                         }
395                 }
396                 if (is_safe) {
397                         safe_costs += ou->costs[i];
398                         safe[safe_count++] = ou->nodes[i];
399                 }
400         }
401
402
403
404         /* now compute the best set out of the unsafe nodes*/
405         best = bitset_alloca(unsafe_count);
406
407         if (unsafe_count > MIS_HEUR_TRIGGER) {
408                 /* Heuristic: Greedy trial and error form index 0 to unsafe_count-1 */
409                 for (i=0; i<unsafe_count; ++i) {
410                         bitset_set(best, i);
411                         /* check if it is a stable set */
412                         for (o=bitset_next_set(best, 0); o!=-1 && o<=i; o=bitset_next_set(best, o+1))
413                                 if (qnode_are_conflicting(qn, unsafe[i], unsafe[o])) {
414                                         bitset_clear(best, i); /* clear the bit and try next one */
415                                         break;
416                                 }
417                 }
418                 /* compute the weight */
419                 bitset_foreach(best, pos)
420                         best_weight += unsafe_costs[pos];
421         } else {
422                 /* Exact Algorithm: Brute force */
423                 curr = bitset_alloca(unsafe_count);
424                 bitset_set_all(curr);
425                 while (!bitset_is_empty(curr)) {
426                         /* check if curr is a stable set */
427                         for (i=bitset_next_set(curr, 0); i!=-1; i=bitset_next_set(curr, i+1))
428                                 for (o=bitset_next_set(curr, i); o!=-1; o=bitset_next_set(curr, o+1)) /* !!!!! difference to ou_max_ind_set_costs(): NOT (curr, i+1) */
429                                                 if (qnode_are_conflicting(qn, unsafe[i], unsafe[o]))
430                                                         goto no_stable_set;
431
432                         /* if we arrive here, we have a stable set */
433                         /* compute the weight of the stable set*/
434                         curr_weight = 0;
435                         bitset_foreach(curr, pos)
436                                 curr_weight += unsafe_costs[pos];
437
438                         /* any better ? */
439                         if (curr_weight > best_weight) {
440                                 best_weight = curr_weight;
441                                 bitset_copy(best, curr);
442                         }
443
444 no_stable_set:
445                         bitset_minus1(curr);
446                 }
447         }
448
449         /* transfer the best set into the qn */
450         qn->mis_size = 1+safe_count+bitset_popcount(best);
451         qn->mis_costs = safe_costs+best_weight;
452         qn->mis[0] = ou->nodes[0]; /* the root is always in a max stable set */
453         next = 1;
454         for (i=0; i<safe_count; ++i)
455                 qn->mis[next++] = safe[i];
456         bitset_foreach(best, pos)
457                 qn->mis[next++] = unsafe[pos];
458 }
459
460 /**
461  * Creates a new qnode
462  */
463 static inline qnode_t *new_qnode(const unit_t *ou, int color)
464 {
465         qnode_t *qn = XMALLOC(qnode_t);
466         qn->color         = color;
467         qn->mis           = XMALLOCN(ir_node*, ou->node_count);
468         qn->conflicts     = new_set(set_cmp_conflict_t, SLOTS_CONFLICTS);
469         qn->changed_nodes = new_set(set_cmp_node_stat_t, SLOTS_CHANGED_NODES);
470         return qn;
471 }
472
473 /**
474  * Frees space used by a queue node
475  */
476 static inline void free_qnode(qnode_t *qn)
477 {
478         del_set(qn->conflicts);
479         del_set(qn->changed_nodes);
480         xfree(qn->mis);
481         xfree(qn);
482 }
483
484 /**
485  * Inserts a qnode in the sorted queue of the optimization unit. Queue is
486  * ordered by field 'size' (the size of the mis) in decreasing order.
487  */
488 static inline void ou_insert_qnode(unit_t *ou, qnode_t *qn)
489 {
490         struct list_head *lh;
491
492         if (qnode_are_conflicting(qn, ou->nodes[0], ou->nodes[0])) {
493                 /* root node is not in qnode */
494                 free_qnode(qn);
495                 return;
496         }
497
498         qnode_max_ind_set(qn, ou);
499         /* do the insertion */
500         DBG((dbg, LEVEL_4, "\t  Insert qnode color %d with cost %d\n", qn->color, qn->mis_costs));
501         lh = &ou->queue;
502         while (lh->next != &ou->queue) {
503                 qnode_t *curr = list_entry_queue(lh->next);
504                 if (curr->mis_costs <= qn->mis_costs)
505                         break;
506                 lh = lh->next;
507         }
508         list_add(&qn->queue, lh);
509 }
510
511 /**
512  * Tries to re-allocate colors of nodes in this opt unit, to achieve lower
513  * costs of copy instructions placed during SSA-destruction and lowering.
514  * Works only for opt units with exactly 1 root node, which is the
515  * case for approximately 80% of all phi classes and 100% of register constrained
516  * nodes. (All other phi classes are reduced to this case.)
517  */
518 static void ou_optimize(unit_t *ou, bitset_t const *const allocatable_regs, be_ifg_t *const ifg)
519 {
520         DBG((dbg, LEVEL_1, "\tOptimizing unit:\n"));
521         for (int i = 0; i < ou->node_count; ++i)
522                 DBG((dbg, LEVEL_1, "\t %+F\n", ou->nodes[i]));
523
524         /* init queue */
525         INIT_LIST_HEAD(&ou->queue);
526
527         arch_register_req_t const *const req    = arch_get_irn_register_req(ou->nodes[0]);
528         unsigned                   const n_regs = req->cls->n_regs;
529         if (arch_register_req_is(req, limited)) {
530                 unsigned const* limited = req->limited;
531
532                 for (unsigned idx = 0; idx != n_regs; ++idx) {
533                         if (!bitset_is_set(allocatable_regs, idx))
534                                 continue;
535                         if (!rbitset_is_set(limited, idx))
536                                 continue;
537
538                         ou_insert_qnode(ou, new_qnode(ou, idx));
539                 }
540         } else {
541                 for (unsigned idx = 0; idx != n_regs; ++idx) {
542                         if (!bitset_is_set(allocatable_regs, idx))
543                                 continue;
544
545                         ou_insert_qnode(ou, new_qnode(ou, idx));
546                 }
547         }
548
549         /* search best */
550         qnode_t *curr;
551         for (;;) {
552                 assert(!list_empty(&ou->queue));
553                 /* get head of queue */
554                 curr = list_entry_queue(ou->queue.next);
555                 list_del(&curr->queue);
556                 DBG((dbg, LEVEL_2, "\t  Examine qnode color %d with cost %d\n", curr->color, curr->mis_costs));
557
558                 /* try */
559                 if (qnode_try_color(curr, allocatable_regs, ifg))
560                         break;
561
562                 /* no success, so re-insert */
563                 del_set(curr->changed_nodes);
564                 curr->changed_nodes = new_set(set_cmp_node_stat_t, SLOTS_CHANGED_NODES);
565                 ou_insert_qnode(ou, curr);
566         }
567
568         /* apply the best found qnode */
569         if (curr->mis_size >= 2) {
570                 int root_col = qnode_get_new_color(curr, ou->nodes[0]);
571                 DBG((dbg, LEVEL_1, "\t  Best color: %d  Costs: %d << %d << %d\n", curr->color, ou->min_nodes_costs, ou->all_nodes_costs - curr->mis_costs, ou->all_nodes_costs));
572                 /* globally pin root and all args which have the same color */
573                 pset_insert_ptr(pinned_global, ou->nodes[0]);
574                 for (int i = 1; i < ou->node_count; ++i) {
575                         ir_node *irn = ou->nodes[i];
576                         int nc = qnode_get_new_color(curr, irn);
577                         if (nc != NO_COLOR && nc == root_col)
578                                 pset_insert_ptr(pinned_global, irn);
579                 }
580
581                 /* set color of all changed nodes */
582                 foreach_set(curr->changed_nodes, node_stat_t, ns) {
583                         /* NO_COLOR is possible, if we had an undo */
584                         if (ns->new_color != NO_COLOR) {
585                                 DBG((dbg, LEVEL_1, "\t    color(%+F) := %d\n", ns->irn, ns->new_color));
586                                 set_irn_col(req->cls, ns->irn, ns->new_color);
587                         }
588                 }
589         }
590
591         /* free best qnode (curr) and queue */
592         free_qnode(curr);
593         list_for_each_entry_safe(qnode_t, curr, tmp, &ou->queue, queue)
594                 free_qnode(curr);
595 }
596
597 /**
598  * Solves the problem using a heuristic approach
599  * Uses the OU data structure
600  */
601 int co_solve_heuristic(copy_opt_t *co)
602 {
603         ASSERT_OU_AVAIL(co);
604
605         pinned_global = pset_new_ptr(SLOTS_PINNED_GLOBAL);
606         bitset_t const *const allocatable_regs = co->cenv->allocatable_regs;
607         be_ifg_t       *const ifg              = co->cenv->ifg;
608         list_for_each_entry(unit_t, curr, &co->units, units) {
609                 if (curr->node_count > 1)
610                         ou_optimize(curr, allocatable_regs, ifg);
611         }
612
613         del_pset(pinned_global);
614         return 0;
615 }
616
617 BE_REGISTER_MODULE_CONSTRUCTOR(be_init_copyheur)
618 void be_init_copyheur(void)
619 {
620         static co_algo_info copyheur = {
621                 co_solve_heuristic, 0
622         };
623
624         be_register_copyopt("heur1", &copyheur);
625         FIRM_DBG_REGISTER(dbg, "ir.be.copyoptheur");
626 }