introduce more generic resource reservation debug helpers instead of old set_using_xx...
[libfirm] / ir / opt / tailrec.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Tail-recursion call optimization.
23  * @date    08.06.2004
24  * @author  Michael Beck
25  * @version $Id$
26  */
27 #ifdef HAVE_CONFIG_H
28 # include "config.h"
29 #endif
30
31 #include <string.h>
32 #include <assert.h>
33
34 #include "debug.h"
35 #include "iroptimize.h"
36 #include "scalar_replace.h"
37 #include "array.h"
38 #include "irprog_t.h"
39 #include "irgwalk.h"
40 #include "irgmod.h"
41 #include "irop.h"
42 #include "irnode_t.h"
43 #include "irgraph_t.h"
44 #include "ircons.h"
45 #include "irflag.h"
46 #include "trouts.h"
47 #include "irouts.h"
48 #include "irhooks.h"
49 #include "ircons_t.h"
50 #include "xmalloc.h"
51
52 DEBUG_ONLY(static firm_dbg_module_t *dbg);
53
54 /**
55  * the environment for collecting data
56  */
57 typedef struct _collect_t {
58         ir_node *proj_X;      /**< initial exec proj */
59         ir_node *block;       /**< old first block */
60         int     blk_idx;      /**< cfgpred index of the initial exec in block */
61         ir_node *proj_m;      /**< memory from start proj's */
62         ir_node *proj_data;   /**< linked list of all parameter access proj's */
63 } collect_t;
64
65 /**
66  * walker for collecting data, fills a collect_t environment
67  */
68 static void collect_data(ir_node *node, void *env) {
69         collect_t *data = env;
70         ir_node *pred;
71         ir_op *op;
72
73         switch (get_irn_opcode(node)) {
74         case iro_Proj:
75                 pred = get_Proj_pred(node);
76
77                 op = get_irn_op(pred);
78                 if (op == op_Proj) {
79                         ir_node *start = get_Proj_pred(pred);
80
81                         if (get_irn_op(start) == op_Start) {
82                                 if (get_Proj_proj(pred) == pn_Start_T_args) {
83                                         /* found Proj(ProjT(Start)) */
84                                         set_irn_link(node, data->proj_data);
85                                         data->proj_data = node;
86                                 }
87                         }
88                 } else if (op == op_Start) {
89                         if (get_Proj_proj(node) == pn_Start_X_initial_exec) {
90                                 /* found ProjX(Start) */
91                                 data->proj_X = node;
92                         }
93                 }
94                 break;
95         case iro_Block: {
96                 int i, n_pred = get_Block_n_cfgpreds(node);
97
98                 /*
99                  * the first block has the initial exec as cfg predecessor
100                  */
101                 if (node != get_irg_start_block(current_ir_graph)) {
102                         for (i = 0; i < n_pred; ++i) {
103                                 if (get_Block_cfgpred(node, i) == data->proj_X) {
104                                         data->block   = node;
105                                         data->blk_idx = i;
106                                         break;
107                                 }
108                         }
109                 }
110                 break;
111         }
112         default:
113                 break;
114         }
115 }
116
117 typedef enum tail_rec_variants {
118         TR_DIRECT,  /**< direct return value, i.e. return func(). */
119         TR_ADD,     /**< additive return value, i.e. return x +/- func() */
120         TR_MUL,     /**< multiplicative return value, i.e. return x * func() or return -func() */
121         TR_BAD,     /**< any other transformation */
122         TR_UNKNOWN  /**< during construction */
123 } tail_rec_variants;
124
125 typedef struct tr_env {
126         int               n_tail_calls;  /**< number of tail calls found */
127         int               n_ress;        /**< number of return values */
128         tail_rec_variants *variants;     /**< return value variants */
129         ir_node           *rets;         /**< list of returns that can be transformed */
130 } tr_env;
131
132
133 /**
134  * do the graph reconstruction for tail-recursion elimination
135  *
136  * @param irg           the graph that will reconstructed
137  * @param rets          linked list of all rets
138  * @param n_tail_calls  number of tail-recursion calls
139  */
140 static void do_opt_tail_rec(ir_graph *irg, tr_env *env) {
141         ir_node *end_block = get_irg_end_block(irg);
142         ir_node *block, *jmp, *call, *calls;
143         ir_node **in;
144         ir_node **phis;
145         ir_node ***call_params;
146         ir_node *p, *n;
147         int i, j, n_params, n_locs;
148         collect_t data;
149         int rem            = get_optimize();
150         ir_entity *ent     = get_irg_entity(irg);
151         ir_type *method_tp = get_entity_type(ent);
152         ir_graph *old      = current_ir_graph;
153
154         current_ir_graph = irg;
155
156         assert(env->n_tail_calls > 0);
157
158         /* we add new nodes, so the outs are inconsistent */
159         set_irg_outs_inconsistent(irg);
160
161         /* we add new blocks and change the control flow */
162         set_irg_doms_inconsistent(irg);
163         set_irg_extblk_inconsistent(irg);
164
165         /* we add a new loop */
166         set_irg_loopinfo_inconsistent(irg);
167
168         /* calls are removed */
169         set_trouts_inconsistent();
170
171         /* we must build some new nodes WITHOUT CSE */
172         set_optimize(0);
173
174         /* collect needed data */
175         data.proj_X    = NULL;
176         data.block     = NULL;
177         data.blk_idx   = -1;
178         data.proj_m    = get_irg_initial_mem(irg);
179         data.proj_data = NULL;
180         irg_walk_graph(irg, NULL, collect_data, &data);
181
182         /* check number of arguments */
183         call = get_irn_link(end_block);
184         n_params = get_Call_n_params(call);
185
186         assert(data.proj_X && "Could not find initial exec from Start");
187         assert(data.block  && "Could not find first block");
188         assert(data.proj_m && "Could not find initial memory");
189         assert((data.proj_data || n_params == 0) && "Could not find Proj(ProjT(Start)) of non-void function");
190
191         /* allocate in's for phi and block construction */
192         NEW_ARR_A(ir_node *, in, env->n_tail_calls + 1);
193
194         in[0] = data.proj_X;
195
196         /* turn Return's into Jmp's */
197         for (i = 1, p = env->rets; p; p = n) {
198                 ir_node *block = get_nodes_block(p);
199
200                 n = get_irn_link(p);
201                 in[i++] = new_r_Jmp(irg, block);
202
203                 // exchange(p, new_r_Bad(irg));
204
205                 /* we might generate an endless loop, so add
206                  * the block to the keep-alive list */
207                 add_End_keepalive(get_irg_end(irg), block);
208         }
209
210         /* create a new block at start */
211         block = new_r_Block(irg, env->n_tail_calls + 1, in);
212         jmp   = new_r_Jmp(irg, block);
213
214         /* the old first block is now the second one */
215         set_Block_cfgpred(data.block, data.blk_idx, jmp);
216
217         /* allocate phi's, position 0 contains the memory phi */
218         NEW_ARR_A(ir_node *, phis, n_params + 1);
219
220         /* build the memory phi */
221         i = 0;
222         in[i] = new_r_Proj(irg, get_irg_start_block(irg), get_irg_start(irg), mode_M, pn_Start_M);
223         set_irg_initial_mem(irg, in[i]);
224         ++i;
225
226         for (calls = call; calls; calls = get_irn_link(calls)) {
227                 in[i] = get_Call_mem(calls);
228                 ++i;
229         }
230         assert(i == env->n_tail_calls + 1);
231
232         phis[0] = new_r_Phi(irg, block, env->n_tail_calls + 1, in, mode_M);
233
234         /* build the data Phi's */
235         if (n_params > 0) {
236                 ir_node *calls;
237                 ir_node *args;
238                 ir_node *args_bl;
239
240                 NEW_ARR_A(ir_node **, call_params, env->n_tail_calls);
241
242                 /* collect all parameters */
243                 for (i = 0, calls = call; calls; calls = get_irn_link(calls)) {
244                         call_params[i] = get_Call_param_arr(calls);
245                         ++i;
246                 }
247
248                 /* build new Proj's and Phi's */
249                 args    = get_irg_args(irg);
250                 args_bl = get_nodes_block(args);
251                 for (i = 0; i < n_params; ++i) {
252                         ir_mode *mode = get_type_mode(get_method_param_type(method_tp, i));
253
254                         in[0] = new_r_Proj(irg, args_bl, args, mode, i);
255                         for (j = 0; j < env->n_tail_calls; ++j)
256                                 in[j + 1] = call_params[j][i];
257
258                         phis[i + 1] = new_r_Phi(irg, block, env->n_tail_calls + 1, in, mode);
259                 }
260         }
261
262         /*
263          * ok, we are here, so we have build and collected all needed Phi's
264          * now exchange all Projs into links to Phi
265          */
266         exchange(data.proj_m, phis[0]);
267         for (p = data.proj_data; p; p = n) {
268                 long proj = get_Proj_proj(p);
269
270                 assert(0 <= proj && proj < n_params);
271                 n = get_irn_link(p);
272                 exchange(p, phis[proj + 1]);
273         }
274
275         /* tail recursion was done, all info is invalid */
276         set_irg_doms_inconsistent(irg);
277         set_irg_outs_inconsistent(irg);
278         set_irg_extblk_inconsistent(irg);
279         set_irg_loopinfo_state(current_ir_graph, loopinfo_cf_inconsistent);
280         set_trouts_inconsistent();
281         set_irg_callee_info_state(irg, irg_callee_info_inconsistent);
282
283         set_optimize(rem);
284
285         /* check if we need new values */
286         n_locs = 0;
287         for (i = 0; i < env->n_ress; ++i) {
288                 if (env->variants[i] != TR_DIRECT)
289                         ++n_locs;
290         }
291
292         if (n_locs > 0) {
293                 ir_node *bad, *start_block;
294                 ir_node **in;
295                 ir_mode **modes;
296
297                 NEW_ARR_A(ir_node *, in, n_locs);
298                 NEW_ARR_A(ir_mode *, modes, n_locs);
299                 ssa_cons_start(irg, n_locs);
300
301                 start_block = get_irg_start_block(irg);
302                 set_cur_block(start_block);
303
304                 for (i = 0; i < env->n_ress; ++i) {
305                         ir_type *tp = get_method_res_type(method_tp, i);
306                         ir_mode *mode = get_type_mode(tp);
307
308                         modes[i] = mode;
309                         if (env->variants[i] == TR_ADD) {
310                                 set_value(i, new_Const(mode, get_mode_null(mode)));
311                         } else if (env->variants[i] == TR_MUL) {
312                                 set_value(i, new_Const(mode, get_mode_one(mode)));
313                         }
314                 }
315                 mature_immBlock(start_block);
316
317                 /* no: we can kill all returns */
318                 bad = get_irg_bad(irg);
319
320                 for (p = env->rets; p; p = n) {
321                         ir_node *block = get_nodes_block(p);
322                         ir_node *call, *mem, *jmp, *tuple;
323
324                         set_cur_block(block);
325                         n = get_irn_link(p);
326
327                         call = skip_Proj(get_Return_mem(p));
328                         assert(is_Call(call));
329
330                         mem = get_Call_mem(call);
331
332                         /* create a new jump, free of CSE */
333                         set_optimize(0);
334                         jmp = new_Jmp();
335                         set_optimize(rem);
336
337                         for (i = 0; i < env->n_ress; ++i) {
338                                 if (env->variants[i] != TR_DIRECT) {
339                                         in[i] = get_value(i, modes[i]);
340                                 } else {
341                                         in[i] = bad;
342                                 }
343                         }
344                         /* create a new tuple for the return values */
345                         tuple = new_Tuple(env->n_ress, in);
346
347                         turn_into_tuple(call, pn_Call_max);
348                         set_Tuple_pred(call, pn_Call_M,                mem);
349                         set_Tuple_pred(call, pn_Call_X_regular,        jmp);
350                         set_Tuple_pred(call, pn_Call_X_except,         bad);
351                         set_Tuple_pred(call, pn_Call_T_result,         tuple);
352                         set_Tuple_pred(call, pn_Call_M_except,         mem);
353                         set_Tuple_pred(call, pn_Call_P_value_res_base, bad);
354
355                         for (i = 0; i < env->n_ress; ++i) {
356                                 ir_node *res = get_Return_res(p, i);
357                                 if (env->variants[i] != TR_DIRECT) {
358                                         set_value(i, res);
359                                 }
360                         }
361
362                         exchange(p, bad);
363                 }
364
365                 /* finally fix all other returns */
366                 end_block = get_irg_end_block(irg);
367                 for (i = get_Block_n_cfgpreds(end_block) - 1; i >= 0; --i) {
368                         ir_node *ret = get_Block_cfgpred(end_block, i);
369
370                         /* search all Returns of a block */
371                         if (! is_Return(ret))
372                                 continue;
373
374                         set_cur_block(get_nodes_block(ret));
375                         for (j = 0; j < env->n_ress; ++j) {
376                                 ir_node *pred = get_Return_res(ret, j);
377                                 ir_node *n;
378
379                                 switch (env->variants[j]) {
380                                 case TR_DIRECT:
381                                         continue;
382
383                                 case TR_ADD:
384                                         n = get_value(j, modes[j]);
385                                         n = new_Add(n, pred, modes[j]);
386                                         set_Return_res(ret, j, n);
387                                         break;
388
389                                 case TR_MUL:
390                                         n = get_value(j, modes[j]);
391                                         n = new_Mul(n, pred, modes[j]);
392                                         set_Return_res(ret, j, n);
393                                         break;
394
395                                 default:
396                                         assert(!"unexpected tail recursion variant");
397                                 }
398                         }
399                 }
400                 ssa_cons_finish(irg);
401         } else {
402                 ir_node *bad = get_irg_bad(irg);
403
404                 /* no: we can kill all returns */
405                 for (p = env->rets; p; p = n) {
406                         n = get_irn_link(p);
407                         exchange(p, bad);
408                 }
409         }
410         current_ir_graph = old;
411 }
412
413 /**
414  * Check the lifetime of locals in the given graph.
415  * Tail recursion can only be done, if we can prove that
416  * the lifetime of locals end with the recursive call.
417  * We do this by checking that no address of a local variable is
418  * stored or transmitted as an argument to a call.
419  *
420  * @return non-zero if it's ok to do tail recursion
421  */
422 static int check_lifetime_of_locals(ir_graph *irg) {
423         ir_node *irg_frame, *irg_val_param_base;
424         int i;
425
426         irg_frame = get_irg_frame(irg);
427         for (i = get_irn_n_outs(irg_frame) - 1; i >= 0; --i) {
428                 ir_node *succ = get_irn_out(irg_frame, i);
429
430                 if (is_Sel(succ) && is_address_taken(succ))
431                         return 0;
432         }
433
434         /* Check if we have compound arguments.
435            For now, we cannot handle them, */
436         irg_val_param_base = get_irg_value_param_base(irg);
437         if (get_irn_n_outs(irg_val_param_base) > 0)
438                 return 0;
439
440         return 1;
441 }
442
443 /**
444  * Examine irn and detect the recursion variant.
445  */
446 static tail_rec_variants find_variant(ir_node *irn, ir_node *call) {
447         ir_node           *a, *b;
448         tail_rec_variants va, vb, res;
449
450         if (skip_Proj(skip_Proj(irn)) == call) {
451                 /* found it */
452                 return TR_DIRECT;
453         }
454         switch (get_irn_opcode(irn)) {
455         case iro_Add:
456                 /* try additive */
457                 a = get_Add_left(irn);
458                 if (get_irn_MacroBlock(a) != get_irn_MacroBlock(call)) {
459                         /* we are outside, ignore */
460                         va = TR_UNKNOWN;
461                 } else {
462                         va = find_variant(a, call);
463                         if (va == TR_BAD)
464                                 return TR_BAD;
465                 }
466                 b = get_Add_right(irn);
467                 if (get_irn_MacroBlock(b) != get_irn_MacroBlock(call)) {
468                         /* we are outside, ignore */
469                         vb = TR_UNKNOWN;
470                 } else {
471                         vb = find_variant(b, call);
472                         if (vb == TR_BAD)
473                                 return TR_BAD;
474                 }
475                 if (va == vb) {
476                         res = va;
477                 }
478                 else if (va == TR_UNKNOWN)
479                         res = vb;
480                 else if (vb == TR_UNKNOWN)
481                         res = va;
482                 else {
483                         /* they are different but none is TR_UNKNOWN -> incompatible */
484                         return TR_BAD;
485                 }
486                 if (res == TR_DIRECT || res == TR_ADD)
487                         return TR_ADD;
488                 /* not compatible */
489                 return TR_BAD;
490
491         case iro_Sub:
492                 /* try additive, but return value must be left */
493                 a = get_Sub_left(irn);
494                 if (get_irn_MacroBlock(a) != get_irn_MacroBlock(call)) {
495                         /* we are outside, ignore */
496                         va = TR_UNKNOWN;
497                 } else {
498                         va = find_variant(a, call);
499                         if (va == TR_BAD)
500                                 return TR_BAD;
501                 }
502                 b = get_Sub_right(irn);
503                 if (get_irn_MacroBlock(b) != get_irn_MacroBlock(call)) {
504                         /* we are outside, ignore */
505                         vb = TR_UNKNOWN;
506                 } else {
507                         vb = find_variant(b, call);
508                         if (vb != TR_UNKNOWN)
509                                 return TR_BAD;
510                 }
511                 res = va;
512                 if (res == TR_DIRECT || res == TR_ADD)
513                         return res;
514                 /* not compatible */
515                 return TR_BAD;
516
517         case iro_Mul:
518                 /* try multiplicative */
519                 a = get_Mul_left(irn);
520                 if (get_irn_MacroBlock(a) != get_irn_MacroBlock(call)) {
521                         /* we are outside, ignore */
522                         va = TR_UNKNOWN;
523                 } else {
524                         va = find_variant(a, call);
525                         if (va == TR_BAD)
526                                 return TR_BAD;
527                 }
528                 b = get_Mul_right(irn);
529                 if (get_irn_MacroBlock(b) != get_irn_MacroBlock(call)) {
530                         /* we are outside, ignore */
531                         vb = TR_UNKNOWN;
532                 } else {
533                         vb = find_variant(b, call);
534                         if (vb == TR_BAD)
535                                 return TR_BAD;
536                 }
537                 if (va == vb) {
538                         res = va;
539                 }
540                 else if (va == TR_UNKNOWN)
541                         res = vb;
542                 else if (vb == TR_UNKNOWN)
543                         res = va;
544                 else {
545                         /* they are different but none is TR_UNKNOWN -> incompatible */
546                         return TR_BAD;
547                 }
548                 if (res == TR_DIRECT || res == TR_MUL)
549                         return TR_MUL;
550                 /* not compatible */
551                 return TR_BAD;
552
553         case iro_Minus:
554                 /* try multiplicative */
555                 a = get_Minus_op(irn);
556                 res =  find_variant(a, call);
557                 if (res == TR_DIRECT)
558                         return TR_MUL;
559                 if (res == TR_MUL || res == TR_UNKNOWN)
560                         return res;
561                 /* not compatible */
562                 return TR_BAD;
563
564         default:
565                 return TR_UNKNOWN;
566         }
567 }
568
569
570 /*
571  * convert simple tail-calls into loops
572  */
573 int opt_tail_rec_irg(ir_graph *irg) {
574         tr_env            env;
575         ir_node           *end_block;
576         int               i, n_ress, n_tail_calls = 0;
577         ir_node           *rets = NULL;
578         ir_type           *mtd_type, *call_type;
579         ir_entity         *ent;
580
581         assure_irg_outs(irg);
582
583         if (! check_lifetime_of_locals(irg))
584                 return 0;
585
586
587         ent      = get_irg_entity(irg);
588         mtd_type = get_entity_type(ent);
589     n_ress   = get_method_n_ress(mtd_type);
590
591         env.variants = NULL;
592         env.n_ress   = n_ress;
593
594         if (n_ress > 0) {
595                 NEW_ARR_A(tail_rec_variants, env.variants, n_ress);
596
597                 for (i = 0; i < n_ress; ++i)
598                         env.variants[i] = TR_DIRECT;
599         }
600
601         /*
602          * This tail recursion optimization works best
603          * if the Returns are normalized.
604          */
605         normalize_n_returns(irg);
606
607         end_block = get_irg_end_block(irg);
608         set_irn_link(end_block, NULL);
609
610         for (i = get_Block_n_cfgpreds(end_block) - 1; i >= 0; --i) {
611                 ir_node *ret = get_Block_cfgpred(end_block, i);
612                 ir_node *call, *call_ptr;
613                 int j;
614                 ir_node **ress;
615
616                 /* search all Returns of a block */
617                 if (! is_Return(ret))
618                         continue;
619
620                 /* check, if it's a Return self() */
621                 call = skip_Proj(get_Return_mem(ret));
622                 if (! is_Call(call))
623                         continue;
624
625                 /* the call must be in the same block as the return */
626                 if (get_nodes_block(call) != get_nodes_block(ret))
627                         continue;
628
629                 /* check if it's a recursive call */
630                 call_ptr = get_Call_ptr(call);
631
632                 if (! is_Global(call_ptr))
633                         continue;
634
635                 ent = get_Global_entity(call_ptr);
636                 if (!ent || get_entity_irg(ent) != irg)
637                         continue;
638
639                 /*
640                  * Check, that the types match. At least in C
641                  * this might fail.
642                  */
643                 mtd_type  = get_entity_type(ent);
644                 call_type = get_Call_type(call);
645
646                 if (mtd_type != call_type) {
647                         /*
648                          * Hmm, the types did not match, bad.
649                          * This can happen in C when no prototype is given
650                          * or K&R style is used.
651                          */
652 #if 0
653                         printf("Warning: Tail recursion fails because of different method and call types:\n");
654                         dump_type(mtd_type);
655                         dump_type(call_type);
656 #endif
657                         continue;
658                 }
659
660                 /* ok, mem is routed to a recursive call, check return args */
661                 ress = get_Return_res_arr(ret);
662                 for (j = get_Return_n_ress(ret) - 1; j >= 0; --j) {
663                         tail_rec_variants var = find_variant(ress[j], call);
664
665                         if (var >= TR_BAD) {
666                                 /* cannot be transformed */
667                                 break;
668                         }
669                         if (var == TR_DIRECT)
670                                 var = env.variants[j];
671                         else if (env.variants[j] == TR_DIRECT)
672                                 env.variants[j] = var;
673                         if (env.variants[j] != var) {
674                                 /* not compatible */
675                                 break;
676                         }
677                 }
678                 if (j >= 0)
679                         continue;
680
681                 /* here, we have found a call */
682                 set_irn_link(call, get_irn_link(end_block));
683                 set_irn_link(end_block, call);
684                 ++n_tail_calls;
685
686                 /* link all returns, we will need this */
687                 set_irn_link(ret, rets);
688                 rets = ret;
689         }
690
691         /* now, end_block->link contains the list of all tail calls */
692         if (n_tail_calls <= 0)
693                 return 0;
694
695         DB((dbg, LEVEL_2, "  Performing tail recursion for graph %s and %d Calls\n",
696             get_entity_ld_name(get_irg_entity(irg)), n_tail_calls));
697
698         hook_tail_rec(irg, n_tail_calls);
699
700         env.n_tail_calls = n_tail_calls;
701         env.rets         = rets;
702         do_opt_tail_rec(irg, &env);
703
704         return n_tail_calls;
705 }
706
707 /*
708  * optimize tail recursion away
709  */
710 void opt_tail_recursion(void) {
711         int i;
712         int n_opt_applications = 0;
713         ir_graph *irg;
714
715         FIRM_DBG_REGISTER(dbg, "firm.opt.tailrec");
716
717         for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
718                 irg = get_irp_irg(i);
719
720                 current_ir_graph = irg;
721
722                 ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK);
723                 if (opt_tail_rec_irg(irg))
724                         ++n_opt_applications;
725
726                 ir_free_resources(irg, IR_RESOURCE_IRN_LINK);
727         }
728
729         DB((dbg, LEVEL_1, "Performed tail recursion for %d of %d graphs\n",
730             n_opt_applications, get_irp_n_irgs()));
731 }