<div dir="auto">Alan, is this good for 7.1 too?<br><br><div data-smartmail="gmail_signature">Regards,<br><br>CJC<br><br>(sent on the move)</div></div><br><div class="gmail_quote"><div dir="ltr">On Sat, 9 Jun 2018, 14:45 Alan Lord, <<a href="mailto:alanslists@gmail.com">alanslists@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 09/06/18 06:59, Avinash P wrote:<br>
> Hi,<br>
>    We have problem to import record above 1000.we are using schedular <br>
> for importing large data.We have setup cron job with time interval 15 <br>
> min.when we import data ,some data get duplicated(not all data).Any <br>
> solution?<br>
<br>
I suggest using an external script, that you can run from the command <br>
line to read in the csv and create records using the vtiger server APIs, <br>
e.g.:<br>
<br>
<a href="https://paste.ubuntu.com/p/HXtKsnstjn/" rel="noreferrer noreferrer" target="_blank">https://paste.ubuntu.com/p/HXtKsnstjn/</a><br>
<br>
<br>
Al<br>
<br>
_______________________________________________<br>
<a href="http://www.vtiger.com/" rel="noreferrer noreferrer" target="_blank">http://www.vtiger.com/</a></blockquote></div>