]> rtime.felk.cvut.cz Git - hornmich/skoda-qr-demo.git/blob - QRScanner/mobile/jni/thirdparty/curl/docs/TODO
Add MuPDF native source codes
[hornmich/skoda-qr-demo.git] / QRScanner / mobile / jni / thirdparty / curl / docs / TODO
1                                   _   _ ____  _
2                               ___| | | |  _ \| |
3                              / __| | | | |_) | |
4                             | (__| |_| |  _ <| |___
5                              \___|\___/|_| \_\_____|
6
7                 Things that could be nice to do in the future
8
9  Things to do in project cURL. Please tell us what you think, contribute and
10  send us patches that improve things!
11
12  All bugs documented in the KNOWN_BUGS document are subject for fixing!
13
14  1. libcurl
15  1.2 More data sharing
16  1.3 struct lifreq
17  1.4 signal-based resolver timeouts
18  1.5 get rid of PATH_MAX
19  1.6 progress callback without doubles
20  1.7 Happy Eyeball dual stack connect
21
22  2. libcurl - multi interface
23  2.1 More non-blocking
24  2.2 Fix HTTP Pipelining for PUT
25
26  3. Documentation
27  3.1  More and better
28
29  4. FTP
30  4.1 HOST
31  4.2 Alter passive/active on failure and retry
32  4.3 Earlier bad letter detection
33  4.4 REST for large files
34  4.5 FTP proxy support
35  4.6 ASCII support
36
37  5. HTTP
38  5.1 Better persistency for HTTP 1.0
39  5.2 support FF3 sqlite cookie files
40  5.3 Rearrange request header order
41  5.4 HTTP2/SPDY
42
43  6. TELNET
44  6.1 ditch stdin
45  6.2 ditch telnet-specific select
46  6.3 feature negotiation debug data
47  6.4 send data in chunks
48
49  7. SMTP
50  7.1 Pipelining
51  7.2 Graceful base64 decoding failure
52  7.3 Enhanced capability support
53  
54  8. POP3
55  8.1 Pipelining
56  8.2 Graceful base64 decoding failure
57  8.3 Enhanced capability support
58  
59  9. IMAP
60  9.1 Graceful base64 decoding failure
61  9.2 Enhanced capability support
62  
63  10. LDAP
64  10.1 SASL based authentication mechanisms
65  
66  11. New protocols
67  11.1 RSYNC
68
69  12. SSL
70  12.1 Disable specific versions
71  12.2 Provide mutex locking API
72  12.3 Evaluate SSL patches
73  12.4 Cache OpenSSL contexts
74  12.5 Export session ids
75  12.6 Provide callback for cert verification
76  12.7 Support other SSL libraries
77  12.8 improve configure --with-ssl
78  12.9 Support DANE
79
80  13. GnuTLS
81  13.1 SSL engine stuff
82  13.2 check connection
83
84  14. SASL
85  14.1 Other authentication mechanisms
86  
87  15. Client
88  15.1 sync
89  15.2 glob posts
90  15.3 prevent file overwriting
91  15.4 simultaneous parallel transfers
92  15.5 provide formpost headers
93  15.6 url-specific options
94  15.7 warning when setting an option
95  15.8 IPv6 addresses with globbing
96
97  16. Build
98  16.1 roffit
99
100  17. Test suite
101  17.1 SSL tunnel
102  17.2 nicer lacking perl message
103  17.3 more protocols supported
104  17.4 more platforms supported
105
106  18. Next SONAME bump
107  18.1 http-style HEAD output for ftp
108  18.2 combine error codes
109  18.3 extend CURLOPT_SOCKOPTFUNCTION prototype
110
111  19. Next major release
112  19.1 cleanup return codes
113  19.2 remove obsolete defines
114  19.3 size_t
115  19.4 remove several functions
116  19.5 remove CURLOPT_FAILONERROR
117  19.6 remove CURLOPT_DNS_USE_GLOBAL_CACHE
118  19.7 remove progress meter from libcurl
119  19.8 remove 'curl_httppost' from public
120  19.9 have form functions use CURL handle argument
121  19.10 Add CURLOPT_MAIL_CLIENT option
122
123 ==============================================================================
124
125 1. libcurl
126
127 1.2 More data sharing
128
129  curl_share_* functions already exist and work, and they can be extended to
130  share more. For example, enable sharing of the ares channel and the
131  connection cache.
132
133 1.3 struct lifreq
134
135  Use 'struct lifreq' and SIOCGLIFADDR instead of 'struct ifreq' and
136  SIOCGIFADDR on newer Solaris versions as they claim the latter is obsolete.
137  To support ipv6 interface addresses for network interfaces properly.
138
139 1.4 signal-based resolver timeouts
140
141  libcurl built without an asynchronous resolver library uses alarm() to time
142  out DNS lookups. When a timeout occurs, this causes libcurl to jump from the
143  signal handler back into the library with a sigsetjmp, which effectively
144  causes libcurl to continue running within the signal handler. This is
145  non-portable and could cause problems on some platforms. A discussion on the
146  problem is available at http://curl.haxx.se/mail/lib-2008-09/0197.html
147
148  Also, alarm() provides timeout resolution only to the nearest second. alarm
149  ought to be replaced by setitimer on systems that support it.
150
151 1.5 get rid of PATH_MAX
152
153  Having code use and rely on PATH_MAX is not nice:
154  http://insanecoding.blogspot.com/2007/11/pathmax-simply-isnt.html
155
156  Currently the SSH based code uses it a bit, but to remove PATH_MAX from there
157  we need libssh2 to properly tell us when we pass in a too small buffer and
158  its current API (as of libssh2 1.2.7) doesn't.
159
160 1.6 progress callback without doubles
161
162  The progress callback was introduced way back in the days and the choice to
163  use doubles in the arguments was possibly good at the time. Today the doubles
164  only confuse users and make the amounts less precise. We should introduce
165  another progress callback option that take precedence over the old one and
166  have both co-exist for a forseeable time until we can remove the double-using
167  one.
168
169 1.7 Happy Eyeball dual stack connect
170
171  In order to make alternative technologies not suffer when transitioning, like
172  when introducing IPv6 as an alternative to IPv4 and there are more than one
173  option existing simultaneously there are reasons to reconsider internal
174  choices.
175
176  To make libcurl do blazing fast IPv6 in a dual-stack configuration, this needs
177  to be addressed:
178
179     http://tools.ietf.org/html/rfc6555
180
181 2. libcurl - multi interface
182
183 2.1 More non-blocking
184
185  Make sure we don't ever loop because of non-blocking sockets returning
186  EWOULDBLOCK or similar. Blocking cases include:
187
188  - Name resolves on non-windows unless c-ares is used
189  - NSS SSL connections
190  - HTTP proxy CONNECT operations
191  - SOCKS proxy handshakes
192  - file:// transfers
193  - TELNET transfers
194  - The "DONE" operation (post transfer protocol-specific actions) for the
195    protocols SFTP, SMTP, FTP. Fixing Curl_done() for this is a worthy task.
196
197 2.2 Fix HTTP Pipelining for PUT
198
199  HTTP Pipelining can be a way to greatly enhance performance for multiple
200  serial requests and currently libcurl only supports that for HEAD and GET
201  requests but it should also be possible for PUT.
202
203 3. Documentation
204
205 3.1  More and better
206
207  Exactly
208
209 4. FTP
210
211 4.1 HOST
212
213  HOST is a suggested command in the works for a client to tell which host name
214  to use, to offer FTP servers named-based virtual hosting:
215
216  http://tools.ietf.org/html/draft-hethmon-mcmurray-ftp-hosts-11
217
218 4.2 Alter passive/active on failure and retry
219
220  When trying to connect passively to a server which only supports active
221  connections, libcurl returns CURLE_FTP_WEIRD_PASV_REPLY and closes the
222  connection. There could be a way to fallback to an active connection (and
223  vice versa). http://curl.haxx.se/bug/feature.cgi?id=1754793
224
225 4.3 Earlier bad letter detection
226
227  Make the detection of (bad) %0d and %0a codes in FTP url parts earlier in the
228  process to avoid doing a resolve and connect in vain.
229
230 4.4 REST for large files
231
232  REST fix for servers not behaving well on >2GB requests. This should fail if
233  the server doesn't set the pointer to the requested index. The tricky
234  (impossible?) part is to figure out if the server did the right thing or not.
235
236 4.5 FTP proxy support
237
238  Support the most common FTP proxies, Philip Newton provided a list allegedly
239  from ncftp. This is not a subject without debate, and is probably not really
240  suitable for libcurl.  http://curl.haxx.se/mail/archive-2003-04/0126.html
241
242 4.6 ASCII support
243
244  FTP ASCII transfers do not follow RFC959. They don't convert the data
245  accordingly.
246
247 5. HTTP
248
249 5.1 Better persistency for HTTP 1.0
250
251  "Better" support for persistent connections over HTTP 1.0
252  http://curl.haxx.se/bug/feature.cgi?id=1089001
253
254 5.2 support FF3 sqlite cookie files
255
256  Firefox 3 is changing from its former format to a a sqlite database instead.
257  We should consider how (lib)curl can/should support this.
258  http://curl.haxx.se/bug/feature.cgi?id=1871388
259
260 5.3 Rearrange request header order
261
262  Server implementors often make an effort to detect browser and to reject
263  clients it can detect to not match. One of the last details we cannot yet
264  control in libcurl's HTTP requests, which also can be exploited to detect
265  that libcurl is in fact used even when it tries to impersonate a browser, is
266  the order of the request headers. I propose that we introduce a new option in
267  which you give headers a value, and then when the HTTP request is built it
268  sorts the headers based on that number. We could then have internally created
269  headers use a default value so only headers that need to be moved have to be
270  specified.
271
272 5.4 HTTP2/SPDY
273
274  The first drafts for HTTP2 have been published
275  (http://tools.ietf.org/html/draft-ietf-httpbis-http2-03) and is so far based
276  on SPDY (http://www.chromium.org/spdy) designs and experiences. Chances are
277  it will end up in that style. Chrome and Firefox already support SPDY and
278  lots of web services do.
279
280  It would make sense to implement SPDY support now and later transition into
281  or add HTTP2 support as well.
282
283  We should base or HTTP2/SPDY work on a 3rd party library for the protocol
284  fiddling. The Spindy library (http://spindly.haxx.se/) was an attempt to make
285  such a library with an API suitable for use by libcurl but that effort has
286  more or less stalled.  spdylay (https://github.com/tatsuhiro-t/spdylay) may
287  be a better option, either used directly or wrapped with a more spindly-like
288  API.
289
290
291 6. TELNET
292
293 6.1 ditch stdin
294
295 Reading input (to send to the remote server) on stdin is a crappy solution for
296 library purposes. We need to invent a good way for the application to be able
297 to provide the data to send.
298
299 6.2 ditch telnet-specific select
300
301  Move the telnet support's network select() loop go away and merge the code
302  into the main transfer loop. Until this is done, the multi interface won't
303  work for telnet.
304
305 6.3 feature negotiation debug data
306
307   Add telnet feature negotiation data to the debug callback as header data.
308
309 6.4 send data in chunks
310
311   Currently, telnet sends data one byte at a time.  This is fine for interactive
312   use, but inefficient for any other.  Sent data should be sent in larger
313   chunks.
314
315 7. SMTP
316
317 7.1 Pipelining
318
319  Add support for pipelining emails.
320
321 7.2 Graceful base64 decoding failure
322
323  Rather than shutting down the session and returning an error when the
324  decoding of a base64 encoded authentication response fails, we should
325  gracefully shutdown the authentication process by sending a * response to the
326  server as per RFC4954.
327
328 7.3 Enhanced capability support
329
330  Add the ability, for an application that uses libcurl, to obtain the list of
331  capabilities returned from the EHLO command.
332
333 8. POP3
334
335 8.1 Pipelining
336
337  Add support for pipelining commands.
338
339 8.2 Graceful base64 decoding failure
340
341  Rather than shutting down the session and returning an error when the
342  decoding of a base64 encoded authentication response fails, we should
343  gracefully shutdown the authentication process by sending a * response to the
344  server as per RFC5034.
345  
346 8.3 Enhanced capability support
347
348  Add the ability, for an application that uses libcurl, to obtain the list of
349  capabilities returned from the CAPA command.
350
351 9. IMAP
352
353 9.1 Graceful base64 decoding failure
354
355  Rather than shutting down the session and returning an error when the
356  decoding of a base64 encoded authentication response fails, we should
357  gracefully shutdown the authentication process by sending a * response to the
358  server as per RFC3501.
359
360 9.2 Enhanced capability support
361
362  Add the ability, for an application that uses libcurl, to obtain the list of
363  capabilities returned from the CAPABILITY command.
364
365 10. LDAP
366
367 10.1 SASL based authentication mechanisms
368
369  Currently the LDAP module only supports ldap_simple_bind_s() in order to bind
370  to an LDAP server. However, this function sends username and password details
371  using the simple authentication mechanism (as clear text). However, it should
372  be possible to use ldap_bind_s() instead specifing the security context
373  information ourselves.
374
375 11. New protocols
376
377 11.1 RSYNC
378
379  There's no RFC for the protocol or an URI/URL format.  An implementation
380  should most probably use an existing rsync library, such as librsync.
381
382 12. SSL
383
384 12.1 Disable specific versions
385
386  Provide an option that allows for disabling specific SSL versions, such as
387  SSLv2 http://curl.haxx.se/bug/feature.cgi?id=1767276
388
389 12.2 Provide mutex locking API
390
391  Provide a libcurl API for setting mutex callbacks in the underlying SSL
392  library, so that the same application code can use mutex-locking
393  independently of OpenSSL or GnutTLS being used.
394
395 12.3 Evaluate SSL patches
396
397  Evaluate/apply Gertjan van Wingerde's SSL patches:
398  http://curl.haxx.se/mail/lib-2004-03/0087.html
399
400 12.4 Cache OpenSSL contexts
401
402  "Look at SSL cafile - quick traces look to me like these are done on every
403  request as well, when they should only be necessary once per ssl context (or
404  once per handle)". The major improvement we can rather easily do is to make
405  sure we don't create and kill a new SSL "context" for every request, but
406  instead make one for every connection and re-use that SSL context in the same
407  style connections are re-used. It will make us use slightly more memory but
408  it will libcurl do less creations and deletions of SSL contexts.
409
410 12.5 Export session ids
411
412  Add an interface to libcurl that enables "session IDs" to get
413  exported/imported. Cris Bailiff said: "OpenSSL has functions which can
414  serialise the current SSL state to a buffer of your choice, and recover/reset
415  the state from such a buffer at a later date - this is used by mod_ssl for
416  apache to implement and SSL session ID cache".
417
418 12.6 Provide callback for cert verification
419
420  OpenSSL supports a callback for customised verification of the peer
421  certificate, but this doesn't seem to be exposed in the libcurl APIs. Could
422  it be? There's so much that could be done if it were!
423
424 12.7 Support other SSL libraries
425
426  Make curl's SSL layer capable of using other free SSL libraries.  Such as
427  MatrixSSL (http://www.matrixssl.org/).
428
429 12.8 improve configure --with-ssl
430
431  make the configure --with-ssl option first check for OpenSSL, then GnuTLS,
432  then NSS...
433
434 12.9 Support DANE
435
436  DNS-Based Authentication of Named Entities (DANE) is a way to provide SSL
437  keys and certs over DNS using DNSSEC as an alternative to the CA model.
438  http://www.rfc-editor.org/rfc/rfc6698.txt
439
440  An initial patch was posted by Suresh Krishnaswamy on March 7th 2013
441  (http://curl.haxx.se/mail/lib-2013-03/0075.html) but it was a too simple
442  approach. See Daniel's comments:
443  http://curl.haxx.se/mail/lib-2013-03/0103.html . libunbound may be the
444  correct library to base this development on.
445
446 13. GnuTLS
447
448 13.1 SSL engine stuff
449
450  Is this even possible?
451
452 13.2 check connection
453
454  Add a way to check if the connection seems to be alive, to correspond to the
455  SSL_peak() way we use with OpenSSL.
456
457 14. SASL
458
459 14.1 Other authentication mechanisms
460
461  Add support for GSSAPI to SMTP, POP3 and IMAP.
462
463 15. Client
464
465 15.1 sync
466
467  "curl --sync http://example.com/feed[1-100].rss" or
468  "curl --sync http://example.net/{index,calendar,history}.html"
469
470  Downloads a range or set of URLs using the remote name, but only if the
471  remote file is newer than the local file. A Last-Modified HTTP date header
472  should also be used to set the mod date on the downloaded file.
473
474 15.2 glob posts
475
476  Globbing support for -d and -F, as in 'curl -d "name=foo[0-9]" URL'.
477  This is easily scripted though.
478
479 15.3 prevent file overwriting
480
481  Add an option that prevents cURL from overwriting existing local files. When
482  used, and there already is an existing file with the target file name
483  (either -O or -o), a number should be appended (and increased if already
484  existing). So that index.html becomes first index.html.1 and then
485  index.html.2 etc.
486
487 15.4 simultaneous parallel transfers
488
489  The client could be told to use maximum N simultaneous parallel transfers and
490  then just make sure that happens. It should of course not make more than one
491  connection to the same remote host. This would require the client to use the
492  multi interface. http://curl.haxx.se/bug/feature.cgi?id=1558595
493
494 15.5 provide formpost headers
495
496  Extending the capabilities of the multipart formposting. How about leaving
497  the ';type=foo' syntax as it is and adding an extra tag (headers) which
498  works like this: curl -F "coolfiles=@fil1.txt;headers=@fil1.hdr" where
499  fil1.hdr contains extra headers like
500
501    Content-Type: text/plain; charset=KOI8-R"
502    Content-Transfer-Encoding: base64
503    X-User-Comment: Please don't use browser specific HTML code
504
505  which should overwrite the program reasonable defaults (plain/text,
506  8bit...)
507
508 15.6 url-specific options
509
510  Provide a way to make options bound to a specific URL among several on the
511  command line. Possibly by letting ':' separate options between URLs,
512  similar to this:
513
514     curl --data foo --url url.com : \
515         --url url2.com : \
516         --url url3.com --data foo3
517
518  (More details: http://curl.haxx.se/mail/archive-2004-07/0133.html)
519
520  The example would do a POST-GET-POST combination on a single command line.
521
522 15.7 warning when setting an option
523
524   Display a warning when libcurl returns an error when setting an option.
525   This can be useful to tell when support for a particular feature hasn't been
526   compiled into the library.
527
528 15.8 IPv6 addresses with globbing
529
530   Currently the command line client needs to get url globbing disabled (with
531   -g) for it to support IPv6 numerical addresses. This is a rather silly flaw
532   that should be corrected. It probably involves a smarter detection of the
533   '[' and ']' letters.
534
535 16. Build
536
537 16.1 roffit
538
539  Consider extending 'roffit' to produce decent ASCII output, and use that
540  instead of (g)nroff when building src/tool_hugehelp.c
541
542 17. Test suite
543
544 17.1 SSL tunnel
545
546  Make our own version of stunnel for simple port forwarding to enable HTTPS
547  and FTP-SSL tests without the stunnel dependency, and it could allow us to
548  provide test tools built with either OpenSSL or GnuTLS
549
550 17.2 nicer lacking perl message
551
552  If perl wasn't found by the configure script, don't attempt to run the tests
553  but explain something nice why it doesn't.
554
555 17.3 more protocols supported
556
557  Extend the test suite to include more protocols. The telnet could just do ftp
558  or http operations (for which we have test servers).
559
560 17.4 more platforms supported
561
562  Make the test suite work on more platforms. OpenBSD and Mac OS. Remove
563  fork()s and it should become even more portable.
564
565 18. Next SONAME bump
566
567 18.1 http-style HEAD output for ftp
568
569  #undef CURL_FTP_HTTPSTYLE_HEAD in lib/ftp.c to remove the HTTP-style headers
570  from being output in NOBODY requests over ftp
571
572 18.2 combine error codes
573
574  Combine some of the error codes to remove duplicates.  The original
575  numbering should not be changed, and the old identifiers would be
576  macroed to the new ones in an CURL_NO_OLDIES section to help with
577  backward compatibility.
578
579  Candidates for removal and their replacements:
580
581     CURLE_FILE_COULDNT_READ_FILE => CURLE_REMOTE_FILE_NOT_FOUND
582
583     CURLE_FTP_COULDNT_RETR_FILE => CURLE_REMOTE_FILE_NOT_FOUND
584
585     CURLE_FTP_COULDNT_USE_REST => CURLE_RANGE_ERROR
586
587     CURLE_FUNCTION_NOT_FOUND => CURLE_FAILED_INIT
588
589     CURLE_LDAP_INVALID_URL => CURLE_URL_MALFORMAT
590
591     CURLE_TFTP_NOSUCHUSER => CURLE_TFTP_ILLEGAL
592
593     CURLE_TFTP_NOTFOUND => CURLE_REMOTE_FILE_NOT_FOUND
594
595     CURLE_TFTP_PERM => CURLE_REMOTE_ACCESS_DENIED
596
597 18.3 extend CURLOPT_SOCKOPTFUNCTION prototype
598
599  The current prototype only provides 'purpose' that tells what the
600  connection/socket is for, but not any protocol or similar. It makes it hard
601  for applications to differentiate on TCP vs UDP and even HTTP vs FTP and
602  similar.
603
604 10. Next major release
605
606 19.1 cleanup return codes
607
608  curl_easy_cleanup() returns void, but curl_multi_cleanup() returns a
609  CURLMcode. These should be changed to be the same.
610
611 19.2 remove obsolete defines
612
613  remove obsolete defines from curl/curl.h
614
615 19.3 size_t
616
617  make several functions use size_t instead of int in their APIs
618
619 19.4 remove several functions
620
621  remove the following functions from the public API:
622
623  curl_getenv
624
625  curl_mprintf (and variations)
626
627  curl_strequal
628
629  curl_strnequal
630
631  They will instead become curlx_ - alternatives. That makes the curl app
632  still capable of using them, by building with them from source.
633
634  These functions have no purpose anymore:
635
636  curl_multi_socket
637
638  curl_multi_socket_all
639
640 19.5 remove CURLOPT_FAILONERROR
641
642  Remove support for CURLOPT_FAILONERROR, it has gotten too kludgy and weird
643  internally. Let the app judge success or not for itself.
644
645 19.6 remove CURLOPT_DNS_USE_GLOBAL_CACHE
646
647  Remove support for a global DNS cache. Anything global is silly, and we
648  already offer the share interface for the same functionality but done
649  "right".
650
651 19.7 remove progress meter from libcurl
652
653  The internally provided progress meter output doesn't belong in the library.
654  Basically no application wants it (apart from curl) but instead applications
655  can and should do their own progress meters using the progress callback.
656
657  The progress callback should then be bumped as well to get proper 64bit
658  variable types passed to it instead of doubles so that big files work
659  correctly.
660
661 19.8 remove 'curl_httppost' from public
662
663  curl_formadd() was made to fill in a public struct, but the fact that the
664  struct is public is never really used by application for their own advantage
665  but instead often restricts how the form functions can or can't be modified.
666
667  Changing them to return a private handle will benefit the implementation and
668  allow us much greater freedoms while still maintining a solid API and ABI.
669
670 19.9 have form functions use CURL handle argument
671
672  curl_formadd() and curl_formget() both currently have no CURL handle
673  argument, but both can use a callback that is set in the easy handle, and
674  thus curl_formget() with callback cannot function without first having
675  curl_easy_perform() (or similar) called - which is hard to grasp and a design
676  mistake.
677
678 19.10 Add CURLOPT_MAIL_CLIENT option
679
680  Rather than use the URL to specify the mail client string to present in the
681  HELO and EHLO commands, libcurl should support a new CURLOPT specifically for
682  specifing this data as the URL is non-standard and to be honest a bit of a
683  hack ;-)
684
685  Please see the following thread for more information:
686  http://curl.haxx.se/mail/lib-2012-05/0178.html
687